نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

31 فروردین 1403 7:37 ب.ظ

فراخوان‌ها برای تنظیمات هوش مصنوعی بیشتر می‌شوند، اما چگونه ؟

5 آوریل 2023 – توسط استن کاراناسیوس، اولگا کوکشاگینا و پائولین سی راینکه، اعتبار Shutterstock

هفته گذشته، پیشگامان و کارشناسان هوش مصنوعی از آزمایشگاه‌های اصلی هوش مصنوعی خواستند که بلافاصله آموزش سیستم‌های هوش مصنوعی قدرتمندتر از GPT-4 را حداقل به مدت شش ماه متوقف کنند.

نامه سرگشاده ای که توسط مؤسسه Future of Life نوشته شده است هشدار می دهد که سیستم های هوش مصنوعی با “هوش رقابتی انسانی” می توانند به تهدیدی بزرگ برای بشریت تبدیل شوند. از جمله خطرات، احتمال پیشی گرفتن هوش مصنوعی از انسان، منسوخ شدن ما و در دست گرفتن کنترل تمدن است.

این نامه بر نیاز به توسعه مجموعه ای جامع از پروتکل ها برای کنترل توسعه و استقرار هوش مصنوعی تاکید و بیان می کند:

این پروتکل‌ها باید تضمین کنند که سیستم‌هایی که به آن‌ها پایبند هستند، فراتر از یک شک منطقی ایمن هستند. این به معنای توقف توسعه هوش مصنوعی به طور کلی نیست، تنها یک عقب‌نشینی از مسابقه خطرناک به سمت مدل‌های جعبه سیاه غیرقابل پیش‌بینی بزرگتر با قابلیت‌های نوظهور است. “

به طور معمول، نبرد برای مقررات، دولت ها و شرکت های بزرگ فناوری را در مقابل یکدیگر قرار داده است. اما نامه سرگشاده اخیر – تا کنون توسط بیش از 5000 امضاکننده از جمله ایلان ماسک، مدیرعامل توییتر و تسلا، استیو وزنیاک از بنیانگذاران اپل و یوناس کاسا، دانشمند OpenAI، امضا شده است – به نظر می رسد که نشان می دهد احزاب بیشتری در نهایت در یک طرف جمع می شوند.

آیا واقعاً می‌توانیم یک چارچوب ساده و جهانی برای مقررات هوش مصنوعی پیاده‌سازی کنیم؟ و اگر چنین است، این چه شکلی است؟

چه مقرراتی در حال حاضر وجود دارد؟

در استرالیا، دولت مرکز ملی هوش مصنوعی را برای کمک به توسعه هوش مصنوعی و اکوسیستم دیجیتال این کشور ایجاد کرده است. تحت این چتر شبکه هوش مصنوعی مسئول قرار دارد که هدف آن هدایت عملکرد مسئولانه و ارائه رهبری بر روی قوانین و استانداردها است.

با این حال، در حال حاضر مقررات خاصی در مورد هوش مصنوعی و تصمیم گیری الگوریتمی وجود ندارد. دولت رویکردی ملایم اتخاذ کرده است که به طور گسترده ای مفهوم هوش مصنوعی مسئول را در بر می گیرد، اما از تنظیم پارامترهایی که تضمین کننده دستیابی به آن هستند، کوتاهی می کند.

به همین ترتیب، ایالات متحده یک استراتژی موقت را اتخاذ کرده است. قانونگذاران هیچ فوریتی در تلاش برای تنظیم هوش مصنوعی نشان نداده‌اند و برای تنظیم استفاده از آن به قوانین موجود اعتماد کرده‌اند. اتاق بازرگانی ایالات متحده اخیراً خواستار تنظیم مقررات هوش مصنوعی شد تا اطمینان حاصل شود که به رشد آسیب نمی زند یا به یک خطر امنیت ملی تبدیل نمی شود، اما هنوز اقدامی انجام نشده است.

اتحادیه اروپا که در حال رقابت برای ایجاد قانون هوش مصنوعی است، پیشرو در مقررات هوش مصنوعی است. این قانون پیشنهادی سه دسته خطر مرتبط با هوش مصنوعی را تعیین می کند:

  • برنامه‌ها و سیستم‌هایی که «ریسک غیرقابل قبول» ایجاد می‌کنند، ممنوع خواهند شد، مانند امتیازدهی اجتماعی دولتی که در چین استفاده می‌شود.
  • برنامه‌هایی که «پرخطر» در نظر گرفته می‌شوند، مانند ابزارهای اسکن CV که متقاضیان شغل را رتبه‌بندی می‌کنند، مشمول الزامات قانونی خاص خواهند بود، و
  • همه برنامه های کاربردی دیگر تا حد زیادی غیرقانونی خواهند بود.

اگرچه برخی گروه‌ها استدلال می‌کنند که رویکرد اتحادیه اروپا نوآوری را خفه می‌کند، استرالیا باید به دقت نظارت کند، زیرا پیش‌بینی‌پذیری را با همگام شدن با توسعه هوش مصنوعی متعادل می‌کند.

رویکرد چین به هوش مصنوعی بر هدف قرار دادن برنامه‌های کاربردی الگوریتم خاص و نوشتن مقرراتی متمرکز شده است که به استقرار آنها در زمینه‌های خاص، مانند الگوریتم‌هایی که اطلاعات مضر تولید می‌کنند، می‌پردازد. در حالی که این رویکرد ویژگی‌های خاصی را ارائه می‌دهد، قوانینی را به خطر می‌اندازد که به سرعت از فناوری‌های در حال تکامل عقب می‌افتند.

https://techxplore.com

آیا این نوشته برایتان مفید بود؟

مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *