24 جولای 2023 – توسط Avery Ruxer Franklin، دانشگاه رایس-اعتبار: CC0 دامنه عمومی
یک کارشناس علوم اعصاب از موسسه سیاست عمومی بیکر دانشگاه رایس استدلال می کند که نیاز فوری به حمایت از شهروندان با سیستم دفاع شخصی دیجیتالی وجود دارد.هریس ایر، کارشناس سلامت مغز در مؤسسه بیکر میگوید، برای محافظت از افراد در برابر «هک کردن» روابط بین فردی و هوش جمعی ما، گامهایی برای تنظیم هوش مصنوعی پیشرفته (AI) و رسانههای اجتماعی تقویتشده با هوش مصنوعی مورد نیاز است.
او در گزارش جدید می نویسد: «اگرچه چنین فناوری تمام دنیا را به دستگاه های ما می آورد و فرصت های فراوانی را برای تحقق فردی و اجتماعی ارائه می دهد، اما می تواند واقعیت را تحریف کند و توهمات نادرستی ایجاد کند. با انتشار اطلاعات نادرست رسانههای اجتماعی و هوش مصنوعی چالشی مستقیم برای عملکرد دموکراسیهای ما ایجاد میکنند.»
ایر استدلال میکند که نیاز فوری به طراحی سیاستهای مبتنی بر علوم اعصاب برای حمایت از شهروندان در برابر هوش مصنوعی وجود دارد، مانند «ساختار عصبی».
او می نویسد: «نحوه تفسیر ما از واقعیت اطرافمان، نحوه یادگیری و واکنش ما، به نحوه سیم کشی مغز ما بستگی دارد. استدلال شده است که با توجه به رشد سریع فناوری، به تکامل زمان کافی برای توسعه آن نواحی از نئوکورتکس که مسئول عملکردهای شناختی بالاتر هستند داده نشده است. در نتیجه، ما از نظر بیولوژیکی آسیب پذیر و در معرض خطر هستیم.
نوروسلد شامل یک رویکرد سه گانه است: توسعه یک کد رفتار با توجه به عینیت اطلاعات، اجرای حفاظت های نظارتی و ایجاد یک جعبه ابزار آموزشی برای شهروندان.
این گزارش استدلال میکند که همکاری بین ناشران، روزنامهنگاران، رهبران رسانهها، صاحب نظران و دانشمندان مغز میتواند یک «رمز رفتار» را تشکیل دهد که از عینیت اطلاعات پشتیبانی میکند. ایر توضیح می دهد که تفسیر حقایق در قلمرو آزادی اجتماعی و سیاسی نهفته است، اما حقایق غیرقابل انکار باید محافظت شوند.
او توضیح میدهد: «همانطور که علم اعصاب نشان میدهد، ابهام در درک حقایق میتواند «حقایق جایگزین» ایجاد کند که به شدت در مغز ما رمزگذاری میشوند.
ابزاری که با دانشمندان علوم اعصاب ساخته شده است می تواند از آزادی شناختی محافظت کند و در عین حال از افراد – به ویژه جوانان در رسانه های اجتماعی – در برابر اطلاعات نادرست محافظت کند. هدف اصلی این بسته ابزار کمک به افراد خواهد بود که یاد بگیرند چگونه حقایق خود را بررسی کنند و با حساسیت مغز به سوگیری و اطلاعات نادرست مقابله کنند. به عنوان مثال، گوگل در حال حاضر در کشورهای دیگر کمپین هایی دارد که ویدئوهای کوتاهی را در سایت های رسانه های اجتماعی نشان می دهد و روش های ادعاهای گمراه کننده را برجسته می کند.با این حال، ایر استدلال میکند که خودگردانی و اتکای انحصاری به یک کد رفتاری میتواند زمینه بازی ناهمواری ایجاد کند.
او میگوید: «هم برای سیاستگذاران و هم برای دانشمندان مغز ضروری است که این رویکرد سیاستی را پیش ببرند. “قانون پیشنهادی هوش مصنوعی اروپا نمونه ای از پیش بینی این است که چگونه ارائه دهندگان مدل هوش مصنوعی می توانند پاسخگو باشند و شفافیت را حفظ کنند. با مشارکت نزدیک دانشمندان علوم اعصاب در برنامه ریزی و راه اندازی نوروشیلد، ایالات متحده می تواند اطمینان حاصل کند که بهترین بینش های موجود در مورد عملکرد شناخت ما در نظر گرفته می شود.”