5 آوریل 2023 – توسط استن کاراناسیوس، اولگا کوکشاگینا و پائولین سی راینکه، اعتبار Shutterstock
هفته گذشته، پیشگامان و کارشناسان هوش مصنوعی از آزمایشگاههای اصلی هوش مصنوعی خواستند که بلافاصله آموزش سیستمهای هوش مصنوعی قدرتمندتر از GPT-4 را حداقل به مدت شش ماه متوقف کنند.
نامه سرگشاده ای که توسط مؤسسه Future of Life نوشته شده است هشدار می دهد که سیستم های هوش مصنوعی با “هوش رقابتی انسانی” می توانند به تهدیدی بزرگ برای بشریت تبدیل شوند. از جمله خطرات، احتمال پیشی گرفتن هوش مصنوعی از انسان، منسوخ شدن ما و در دست گرفتن کنترل تمدن است.
این نامه بر نیاز به توسعه مجموعه ای جامع از پروتکل ها برای کنترل توسعه و استقرار هوش مصنوعی تاکید و بیان می کند:
این پروتکلها باید تضمین کنند که سیستمهایی که به آنها پایبند هستند، فراتر از یک شک منطقی ایمن هستند. این به معنای توقف توسعه هوش مصنوعی به طور کلی نیست، تنها یک عقبنشینی از مسابقه خطرناک به سمت مدلهای جعبه سیاه غیرقابل پیشبینی بزرگتر با قابلیتهای نوظهور است. “
به طور معمول، نبرد برای مقررات، دولت ها و شرکت های بزرگ فناوری را در مقابل یکدیگر قرار داده است. اما نامه سرگشاده اخیر – تا کنون توسط بیش از 5000 امضاکننده از جمله ایلان ماسک، مدیرعامل توییتر و تسلا، استیو وزنیاک از بنیانگذاران اپل و یوناس کاسا، دانشمند OpenAI، امضا شده است – به نظر می رسد که نشان می دهد احزاب بیشتری در نهایت در یک طرف جمع می شوند.
آیا واقعاً میتوانیم یک چارچوب ساده و جهانی برای مقررات هوش مصنوعی پیادهسازی کنیم؟ و اگر چنین است، این چه شکلی است؟
چه مقرراتی در حال حاضر وجود دارد؟
در استرالیا، دولت مرکز ملی هوش مصنوعی را برای کمک به توسعه هوش مصنوعی و اکوسیستم دیجیتال این کشور ایجاد کرده است. تحت این چتر شبکه هوش مصنوعی مسئول قرار دارد که هدف آن هدایت عملکرد مسئولانه و ارائه رهبری بر روی قوانین و استانداردها است.
با این حال، در حال حاضر مقررات خاصی در مورد هوش مصنوعی و تصمیم گیری الگوریتمی وجود ندارد. دولت رویکردی ملایم اتخاذ کرده است که به طور گسترده ای مفهوم هوش مصنوعی مسئول را در بر می گیرد، اما از تنظیم پارامترهایی که تضمین کننده دستیابی به آن هستند، کوتاهی می کند.
به همین ترتیب، ایالات متحده یک استراتژی موقت را اتخاذ کرده است. قانونگذاران هیچ فوریتی در تلاش برای تنظیم هوش مصنوعی نشان ندادهاند و برای تنظیم استفاده از آن به قوانین موجود اعتماد کردهاند. اتاق بازرگانی ایالات متحده اخیراً خواستار تنظیم مقررات هوش مصنوعی شد تا اطمینان حاصل شود که به رشد آسیب نمی زند یا به یک خطر امنیت ملی تبدیل نمی شود، اما هنوز اقدامی انجام نشده است.
اتحادیه اروپا که در حال رقابت برای ایجاد قانون هوش مصنوعی است، پیشرو در مقررات هوش مصنوعی است. این قانون پیشنهادی سه دسته خطر مرتبط با هوش مصنوعی را تعیین می کند:
- برنامهها و سیستمهایی که «ریسک غیرقابل قبول» ایجاد میکنند، ممنوع خواهند شد، مانند امتیازدهی اجتماعی دولتی که در چین استفاده میشود.
- برنامههایی که «پرخطر» در نظر گرفته میشوند، مانند ابزارهای اسکن CV که متقاضیان شغل را رتبهبندی میکنند، مشمول الزامات قانونی خاص خواهند بود، و
- همه برنامه های کاربردی دیگر تا حد زیادی غیرقانونی خواهند بود.
اگرچه برخی گروهها استدلال میکنند که رویکرد اتحادیه اروپا نوآوری را خفه میکند، استرالیا باید به دقت نظارت کند، زیرا پیشبینیپذیری را با همگام شدن با توسعه هوش مصنوعی متعادل میکند.
رویکرد چین به هوش مصنوعی بر هدف قرار دادن برنامههای کاربردی الگوریتم خاص و نوشتن مقرراتی متمرکز شده است که به استقرار آنها در زمینههای خاص، مانند الگوریتمهایی که اطلاعات مضر تولید میکنند، میپردازد. در حالی که این رویکرد ویژگیهای خاصی را ارائه میدهد، قوانینی را به خطر میاندازد که به سرعت از فناوریهای در حال تکامل عقب میافتند.