27 ژوئن 2023 -توسط سالی کوین، دانشگاه سیدنی -اعتبار: دامنه عمومی Pixabay/CC0
پیشرفتهای اخیر با استفاده از هوش مصنوعی برای استخراج افکار معنیدار از امواج مغزی حامیان حقوق بشر و حریم خصوصی را نگران کرده است که میگویند فناوری با سرعتی سریعتر از قانون در حال توسعه است. این اولین مقاله ای است که بررسی می کند که آیا استرالیا برای کاربردهای بالقوه فناوری های عصبی آماده است یا خیر.
پیشرفتهای فناوری اعصاب توجه دانشمندان حقوق بشر، قانونگذاران ملی و سازمانهایی مانند شورای حقوق بشر سازمان ملل را به خود جلب کرده است و بحثهای شدیدی را در مورد اینکه آیا چارچوبهای قانونی داخلی و بینالمللی کنونی نیاز به اصلاح برای پرداختن به مسائل نوظهور مانند حقوق بشر و حریم خصوصی دارند، برانگیخته است.
با این حال، در استرالیا موضوع نوروتکنولوژی و تأثیر آن بر حقوق بشر مورد توجه قرار نگرفته است، و اگرچه اخلاق در نظر گرفته شده است، اما هنوز تمرکز قانون حقوق بشر وجود ندارد.
دکتر آلن مک کی، کارشناس برجسته حقوق نوروتکنولوژی از دانشکده حقوق سیدنی، گفت که اعلامیه جهانی حقوق بشر، که پیش از شروع فناوری عصبی پیش نویس شده است، ممکن است به طور کامل به این ظرفیت های فناوری نپردازد.
او خواستار این است که فناوری عصبی در دستور کار محققان حقوقی، نهادهای اصلاح قانون، سازمان های حقوق بشر و در نهایت پارلمان های استرالیا قرار گیرد.
این موضوع در اولین مقاله برای این سوال مطرح شد که آیا ما برای کاربردهای بالقوه فناوریهای عصبی و آنچه استرالیا باید در مورد چالشهای حقوق بشر انجام دهد، آماده هستیم. تالیف دکتر مک کی، “نوروتکنولوژی و حقوق بشر: تحولات خارج از کشور و چالش برای استرالیا” در مجله حقوق بشر استرالیا منتشر شده است.
“در حالی که باید تاثیرات مثبت فناوری عصبی – مانند کمک به افراد دارای معلولیت و درمان بیماریهای مزمن – به نقض عمیق حقوق بشر توجه شود. با توجه به سرعت پیشرفت فناوری، ممکن است قانونگذاران باید فعالانه عمل کنند. دکتر آلن مککی میگوید: قانون را شکل میدهند نه اینکه منفعلانه منتظر دادگاهها برای رسیدگی به مسائل باشند.
دکتر مک کی گفت که کل این زمینه در استرالیا “تئوری کمتری” دارد و “بدون پاسخی از سوی نهادهای نظارتی/حقوق بشری”.
از آنجایی که انسان ها به ادغام با ماشین ها ادامه می دهند، مهم است که جنبه منفی به تعویق انداختن بحث در مورد فناوری عصبی را در نظر بگیریم.
نظارت مستقیم بر فعالیت های عصبی طیفی از مسائل را مطرح می کند که آشکارترین آنها حریم خصوصی است. در حالی که ما بسیاری از حریم خصوصی خود را به صورت آنلاین از دست داده ایم، دسترسی مستقیم عصبی نسبت به مسائل مربوط به حریم خصوصی مرتبط با داده های جمع آوری شده از رفتار رسانه های اجتماعی نگران کننده تر است.
همانطور که اخیراً در مطالعهای در دانشگاه تگزاس نشان داده شد، شرکتکنندگان در یک اسکنر تصویربرداری تشدید مغناطیسی کاربردی (fMRI) به پادکستها گوش دادند و دادههایی را تولید کردند که برای آموزش مدلی با هدف رمزگشایی مغزشان استفاده میشود.
پس از آموزش مدل، شرکتکنندگان دوباره زیر اسکنر رفتند و به داستان جدیدی گوش دادند که برای تولید دادههای آموزشی استفاده نشده بود. همانطور که آنها گوش می دادند، اسکنر fMRI سطح اکسیژن خون را در قسمت هایی از مغز آنها ثبت کرد.
سپس محققان از یک مدل زبان بزرگ مانند GPT-4 OpenAI و Bard Google استفاده کردند تا الگوهای فعالیت مغز را با کلمات و عباراتی که شرکت کنندگان شنیده بودند مطابقت دهند.
دکتر شینجی نیشیموتو، متخصص علوم اعصاب در دانشگاه اوزاکا که در تحقیقات تگزاس شرکت نداشت، گفت: “فعالیت مغز نوعی سیگنال رمزگذاری شده است و مدل های زبان راه هایی را برای رمزگشایی آن ارائه می دهند.”
دکتر مک کی گفت که ما باید نظارت مغزی و مداخله مستقیم مغزی را در زمینه های عدالت کیفری، سیاسی، محل کار و مصرف کننده در نظر بگیریم. به عنوان مثال، آیا نظارت بر مغز یک مظنون در طول مصاحبه پلیس نقض حقوق بشر است؟
شرکت آمریکایی Brainwave Science در حال حاضر یک محصول بازجویی عصبی را به بازار عرضه کرده است.
دکتر مککی گفت که برخی میخواهند و استدلال میکنند که استفاده از فناوریهای عصبی هوش مصنوعی و دستگاههای مغزی قابل کاشت، حتی آنهایی که در مغز مجرمان برای تغییر رفتارشان مداخله میکنند، یک چیز مثبت است. اما این از منظر حقوق بشر نگران کننده است.
در خارج از کشور، با تشکیل گروه های حقوق بشر، از جمله بنیاد حقوق اعصاب و شبکه حقوق ذهن، اقداماتی برای رسیدگی به این مسائل صورت گرفته است. این گروه ها تردید دارند که ظرفیت چارچوب بین المللی حقوق بشر بتواند با چالش های نوروتکنولوژی مقابله کند.
بنیاد حقوق عصبی تلاش می کند تا شرکت ها، دولت ها و سازمان ملل حقوق حریم خصوصی ذهنی، هویت شخصی، اراده آزاد، دسترسی عادلانه به تقویت ذهنی و محافظت در برابر تعصب را به رسمیت بشناسند.
دکتر مک کی گفت: “مناظره عمومی ممکن است مفید باشد تا کسانی را که فناوری عصبی تولید می کنند متوجه شوند که تغییرات قانونی در راه است. همانطور که چندین موسسه در خارج از کشور متوجه شدند، اکنون باید بحث شود.”