نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

12 اردیبهشت 1403 6:36 ق.ظ

ادعای یک متخصص علوم اعصاب درمورد «پرده عصبی» برای محافظت در برابر هوش مصنوعی

24 جولای 2023 – توسط Avery Ruxer Franklin، دانشگاه رایس-اعتبار: CC0 دامنه عمومی

یک کارشناس علوم اعصاب از موسسه سیاست عمومی بیکر دانشگاه رایس استدلال می کند که نیاز فوری به حمایت از شهروندان با سیستم دفاع شخصی دیجیتالی وجود دارد.هریس ایر، کارشناس سلامت مغز در مؤسسه بیکر می‌گوید، برای محافظت از افراد در برابر «هک کردن» روابط بین فردی و هوش جمعی ما، گام‌هایی برای تنظیم هوش مصنوعی پیشرفته (AI) و رسانه‌های اجتماعی تقویت‌شده با هوش مصنوعی مورد نیاز است.

او در گزارش جدید می نویسد: «اگرچه چنین فناوری تمام دنیا را به دستگاه های ما می آورد و فرصت های فراوانی را برای تحقق فردی و اجتماعی ارائه می دهد، اما می تواند واقعیت را تحریف کند و توهمات نادرستی ایجاد کند. با انتشار اطلاعات نادرست رسانه‌های اجتماعی و هوش مصنوعی چالشی مستقیم برای عملکرد دموکراسی‌های ما ایجاد می‌کنند.»

ایر استدلال می‌کند که نیاز فوری به طراحی سیاست‌های مبتنی بر علوم اعصاب برای حمایت از شهروندان در برابر هوش مصنوعی وجود دارد، مانند «ساختار عصبی».

او می نویسد: «نحوه تفسیر ما از واقعیت اطرافمان، نحوه یادگیری و واکنش ما، به نحوه سیم کشی مغز ما بستگی دارد. استدلال شده است که با توجه به رشد سریع فناوری، به تکامل زمان کافی برای توسعه آن نواحی از نئوکورتکس که مسئول عملکردهای شناختی بالاتر هستند داده نشده است. در نتیجه، ما از نظر بیولوژیکی آسیب پذیر و در معرض خطر هستیم.

نوروسلد شامل یک رویکرد سه گانه است: توسعه یک کد رفتار با توجه به عینیت اطلاعات، اجرای حفاظت های نظارتی و ایجاد یک جعبه ابزار آموزشی برای شهروندان.

این گزارش استدلال می‌کند که همکاری بین ناشران، روزنامه‌نگاران، رهبران رسانه‌ها، صاحب نظران و دانشمندان مغز می‌تواند یک «رمز رفتار» را تشکیل دهد که از عینیت اطلاعات پشتیبانی می‌کند. ایر توضیح می دهد که تفسیر حقایق در قلمرو آزادی اجتماعی و سیاسی نهفته است، اما حقایق غیرقابل انکار باید محافظت شوند.

او توضیح می‌دهد: «همانطور که علم اعصاب نشان می‌دهد، ابهام در درک حقایق می‌تواند «حقایق جایگزین» ایجاد کند که به شدت در مغز ما رمزگذاری می‌شوند.

ابزاری که با دانشمندان علوم اعصاب ساخته شده است می تواند از آزادی شناختی محافظت کند و در عین حال از افراد – به ویژه جوانان در رسانه های اجتماعی – در برابر اطلاعات نادرست محافظت کند. هدف اصلی این بسته ابزار کمک به افراد خواهد بود که یاد بگیرند چگونه حقایق خود را بررسی کنند و با حساسیت مغز به سوگیری و اطلاعات نادرست مقابله کنند. به عنوان مثال، گوگل در حال حاضر در کشورهای دیگر کمپین هایی دارد که ویدئوهای کوتاهی را در سایت های رسانه های اجتماعی نشان می دهد و روش های ادعاهای گمراه کننده را برجسته می کند.با این حال، ایر استدلال می‌کند که خودگردانی و اتکای انحصاری به یک کد رفتاری می‌تواند زمینه بازی ناهمواری ایجاد کند.

او می‌گوید: «هم برای سیاست‌گذاران و هم برای دانشمندان مغز ضروری است که این رویکرد سیاستی را پیش ببرند. “قانون پیشنهادی هوش مصنوعی اروپا نمونه ای از پیش بینی این است که چگونه ارائه دهندگان مدل هوش مصنوعی می توانند پاسخگو باشند و شفافیت را حفظ کنند. با مشارکت نزدیک دانشمندان علوم اعصاب در برنامه ریزی و راه اندازی نوروشیلد، ایالات متحده می تواند اطمینان حاصل کند که بهترین بینش های موجود در مورد عملکرد شناخت ما در نظر گرفته می شود.”

https://techxplore.com/

آیا این نوشته برایتان مفید بود؟

مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *