نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

13 اردیبهشت 1403 10:44 ق.ظ

پیامدهای حقوق بشری فناوری های ذهن خوانی آینده استرالیا

 

27 ژوئن 2023 -توسط سالی کوین، دانشگاه سیدنی -اعتبار: دامنه عمومی Pixabay/CC0

پیشرفت‌های اخیر با استفاده از هوش مصنوعی برای استخراج افکار معنی‌دار از امواج مغزی حامیان حقوق بشر و حریم خصوصی را نگران کرده است که می‌گویند فناوری با سرعتی سریع‌تر از قانون در حال توسعه است. این اولین مقاله ای است که بررسی می کند که آیا استرالیا برای کاربردهای بالقوه فناوری های عصبی آماده است یا خیر.

پیشرفت‌های فناوری اعصاب توجه دانشمندان حقوق بشر، قانونگذاران ملی و سازمان‌هایی مانند شورای حقوق بشر سازمان ملل را به خود جلب کرده است و بحث‌های شدیدی را در مورد اینکه آیا چارچوب‌های قانونی داخلی و بین‌المللی کنونی نیاز به اصلاح برای پرداختن به مسائل نوظهور مانند حقوق بشر و حریم خصوصی دارند، برانگیخته است.

با این حال، در استرالیا موضوع نوروتکنولوژی و تأثیر آن بر حقوق بشر مورد توجه قرار نگرفته است، و اگرچه اخلاق در نظر گرفته شده است، اما هنوز تمرکز قانون حقوق بشر وجود ندارد.

دکتر آلن مک کی، کارشناس برجسته حقوق نوروتکنولوژی از دانشکده حقوق سیدنی، گفت که اعلامیه جهانی حقوق بشر، که پیش از شروع فناوری عصبی پیش نویس شده است، ممکن است به طور کامل به این ظرفیت های فناوری نپردازد.

او خواستار این است که فناوری عصبی در دستور کار محققان حقوقی، نهادهای اصلاح قانون، سازمان های حقوق بشر و در نهایت پارلمان های استرالیا قرار گیرد.

این موضوع در اولین مقاله برای این سوال مطرح شد که آیا ما برای کاربردهای بالقوه فناوری‌های عصبی و آنچه استرالیا باید در مورد چالش‌های حقوق بشر انجام دهد، آماده هستیم. تالیف دکتر مک کی، “نوروتکنولوژی و حقوق بشر: تحولات خارج از کشور و چالش برای استرالیا” در مجله حقوق بشر استرالیا منتشر شده است.

“در حالی که باید تاثیرات مثبت فناوری عصبی – مانند کمک به افراد دارای معلولیت و درمان بیماری‌های مزمن – به نقض عمیق حقوق بشر توجه شود. با توجه به سرعت پیشرفت فناوری، ممکن است قانون‌گذاران باید فعالانه عمل کنند. دکتر آلن مک‌کی می‌گوید: قانون را شکل می‌دهند نه اینکه منفعلانه منتظر دادگاه‌ها برای رسیدگی به مسائل باشند.

دکتر مک کی گفت که کل این زمینه در استرالیا “تئوری کمتری” دارد و “بدون پاسخی از سوی نهادهای نظارتی/حقوق بشری”.

از آنجایی که انسان ها به ادغام با ماشین ها ادامه می دهند، مهم است که جنبه منفی به تعویق انداختن بحث در مورد فناوری عصبی را در نظر بگیریم.

نظارت مستقیم بر فعالیت های عصبی طیفی از مسائل را مطرح می کند که آشکارترین آنها حریم خصوصی است. در حالی که ما بسیاری از حریم خصوصی خود را به صورت آنلاین از دست داده ایم، دسترسی مستقیم عصبی نسبت به مسائل مربوط به حریم خصوصی مرتبط با داده های جمع آوری شده از رفتار رسانه های اجتماعی نگران کننده تر است.

همانطور که اخیراً در مطالعه‌ای در دانشگاه تگزاس نشان داده شد، شرکت‌کنندگان در یک اسکنر تصویربرداری تشدید مغناطیسی کاربردی (fMRI) به پادکست‌ها گوش دادند و داده‌هایی را تولید کردند که برای آموزش مدلی با هدف رمزگشایی مغزشان استفاده می‌شود.

پس از آموزش مدل، شرکت‌کنندگان دوباره زیر اسکنر رفتند و به داستان جدیدی گوش دادند که برای تولید داده‌های آموزشی استفاده نشده بود. همانطور که آنها گوش می دادند، اسکنر fMRI سطح اکسیژن خون را در قسمت هایی از مغز آنها ثبت کرد.

سپس محققان از یک مدل زبان بزرگ مانند GPT-4 OpenAI و Bard Google استفاده کردند تا الگوهای فعالیت مغز را با کلمات و عباراتی که شرکت کنندگان شنیده بودند مطابقت دهند.

دکتر شینجی نیشیموتو، متخصص علوم اعصاب در دانشگاه اوزاکا که در تحقیقات تگزاس شرکت نداشت، گفت: “فعالیت مغز نوعی سیگنال رمزگذاری شده است و مدل های زبان راه هایی را برای رمزگشایی آن ارائه می دهند.”

دکتر مک کی گفت که ما باید نظارت مغزی و مداخله مستقیم مغزی را در زمینه های عدالت کیفری، سیاسی، محل کار و مصرف کننده در نظر بگیریم. به عنوان مثال، آیا نظارت بر مغز یک مظنون در طول مصاحبه پلیس نقض حقوق بشر است؟

شرکت آمریکایی Brainwave Science در حال حاضر یک محصول بازجویی عصبی را به بازار عرضه کرده است.

دکتر مک‌کی گفت که برخی می‌خواهند و استدلال می‌کنند که استفاده از فناوری‌های عصبی هوش مصنوعی و دستگاه‌های مغزی قابل کاشت، حتی آن‌هایی که در مغز مجرمان برای تغییر رفتارشان مداخله می‌کنند، یک چیز مثبت است. اما این از منظر حقوق بشر نگران کننده است.

در خارج از کشور، با تشکیل گروه های حقوق بشر، از جمله بنیاد حقوق اعصاب و شبکه حقوق ذهن، اقداماتی برای رسیدگی به این مسائل صورت گرفته است. این گروه ها تردید دارند که ظرفیت چارچوب بین المللی حقوق بشر بتواند با چالش های نوروتکنولوژی مقابله کند.

بنیاد حقوق عصبی تلاش می کند تا شرکت ها، دولت ها و سازمان ملل حقوق حریم خصوصی ذهنی، هویت شخصی، اراده آزاد، دسترسی عادلانه به تقویت ذهنی و محافظت در برابر تعصب را به رسمیت بشناسند.

دکتر مک کی گفت: “مناظره عمومی ممکن است مفید باشد تا کسانی را که فناوری عصبی تولید می کنند متوجه شوند که تغییرات قانونی در راه است. همانطور که چندین موسسه در خارج از کشور متوجه شدند، اکنون باید بحث شود.”

https://techxplore.com

آیا این نوشته برایتان مفید بود؟

مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *