22 ژوئیه 2021 توسط Goda Naujokaitytė
با بیش از 117 اقدام اخلاقی در زمینه هوش مصنوعی در سراسر جهان، بحثهای زیادی درباره تنظیم هوش امور اخلاقی مصنوعی وجود دارد، اما همه اینها به کجا میروند؟
ابتکاراتی برای تنظیم امور هوش مصنوعی (AI) در سرتاسر جهان بوجود آمده است که نهادهایی مانند OECD و یونسکو آن را رهبری میکنند. اکنون زمان هماهنگی و تلفیق آن است، و کنفرانسی در مورد اخلاق هوش مصنوعی که تحت نظارت ریاست جمهوری اسلوونی در شورای اتحادیه اروپا برگزار شد.
دیوید لزلی، از کمیته موقت هوش مصنوعی شورای اروپا (CAHAI) لزلی در موسسه آلن تورینگ انگلیس در زمینه اخلاق فعالیت میکند و نویسنده راهنمای رسمی دولت انگلیس در زمینه طراحی مسئولانه و پیاده سازی سیستمهای هوش مصنوعی در بخش عمومی است. او میگوید:
بین سالهای 2015 و 2020، 117 موضوع مربوط به اصول مختلف اصول اخلاقی هوش مصنوعی را منتشر کردند و تعداد آنها رو به رشد است. در مجموع، 91 فقره از اروپا و آمریکای شمالی بیرون آمد. این تعداد بالا نشان میدهد که امیدها و نگرانیهای مربوط به فناوریهای هوش مصنوعی وجود دارد، اما همچنین علاقه مندی به ساختن نوعی سازوکار اجماع در مورد حاکمیت هوش مصنوعی موجود است. (یونسکو)
وی معتقد است، همه این ابتکارات در حال حرکت به سمت هماهنگی است. گام بزرگ بعدی در اواسط سپتامبر با راه اندازی Globalpolicy بوجود خواهد آمد، هشت سازمان بین دولتی از جمله کمیسیون اروپا، OECD، سازمان ملل و بانک جهانی را قادر میسازد تا در تعریف اصول برای برنامههای کاربردی AI در آینده همکاری کنند.
هوش مصنوعی نوید تغییر کم و بیش در هر صنعت، افزایش بهرهوری، بهبود پیش بینی و حمایت از حرکات برای بهرهوری بیشتر انرژی را میدهد. فناوریهای مبتنی بر هوش مصنوعی میتوانند به پیشبینی بازده محصول کمک کنند، در حال حاضر در کشف مواد مخدر، استفاده در اتومبیلهای خودمختار و اتوماتیک سازی کارهای اداری نقش دارند.
در تحلیلهای بازار 2018، مک کینزی تخمین زده است که فناوریهای مبتنی بر هوش مصنوعی میتوانند تا سال 2030، 13 تریلیون دلار به اقتصاد جهانی کمک کنند، که این رقم به 1.2٪ رشد تولید ناخالص داخلی جهانی در سال میرسد.
اما خطرات آشکاری وجود دارد. سیستمهای مجهز به هوش مصنوعی میتوانند حریم خصوصی را نقض کنند، در حالی که برنامههای مبتنی بر دادههای با کیفیت پایین میتوانند منجر به سوگیری و تبعیض شوند. در سال 2016، تحقیقات انجام شده توسط سازمان خبری آمریكا Pro Publica نشان داد كه الگوریتمی كه مقامات قانونی آمریكا برای ارزیابی احتمال ارتكاب مجدد جرم جنایی از آن استفاده كرده اند، دارای تعصب نژادی است.
قوانینی برای فناوریهای هوش مصنوعی برای محدود کردن خطرات در زمینههایی مانند مداخلات بهداشتی، امتیازدهی اعتبار و رتبه بندی بیمه مورد نیاز است.
انتظار میرود که این اصول در نهایت با ارزیابی تأثیر نهادینه شده، چارچوبهای اطمینان و مدیریت ریسک به تعدادی از اصول الزامآور و غیر الزامآور برای حاکمیت هوش مصنوعی تبدیل شود. لزلی خاطرنشان کرد: «این مکانیسم مهمی است که میبینیم همزمان در مکانهای مختلف در حال پیشرفت است.»
در نمایشی از سطح اجماع جهانی، در ماه نوامبر، 193 کشور انتظار میرود که توصیههای غیر الزامآور یونسکو در مورد اخلاق هوش مصنوعی مبتنی بر حقوق بشر را امضا کنند. کشورها 100 ساعت را صرف مذاکره درباره متن کردهاند. «دستیابی به اتفاق نظر در بین تعداد زیادی از کشورهای عضو کار آسانی نیست. اما خبر خوب این است که این بررسیها با توجه به اعلامیه جهانی حقوق بشر شروع میشود.»