نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

3 آذر 1403 4:46 ب.ظ

اکنون، زمان هماهنگی جهانی درباره اصول هوش مصنوعی است

22 ژوئیه 2021 توسط Goda Naujokaitytė

با بیش از 117 اقدام اخلاقی در زمینه هوش مصنوعی در سراسر جهان، بحث‌های زیادی درباره تنظیم هوش امور اخلاقی مصنوعی وجود دارد، اما همه این‌ها به کجا می‌روند؟

ابتکاراتی برای تنظیم امور هوش مصنوعی (AI) در سرتاسر جهان بوجود آمده است که نهادهایی مانند OECD و یونسکو آن را رهبری می‌کنند. اکنون زمان هماهنگی و تلفیق آن است، و کنفرانسی در مورد اخلاق هوش مصنوعی که تحت نظارت ریاست جمهوری اسلوونی در شورای اتحادیه اروپا برگزار شد.

دیوید لزلی، از کمیته موقت هوش مصنوعی شورای اروپا (CAHAI) لزلی در موسسه آلن تورینگ انگلیس در زمینه اخلاق فعالیت می‌کند و نویسنده راهنمای رسمی دولت انگلیس در زمینه طراحی مسئولانه و پیاده سازی سیستم‌های هوش مصنوعی در بخش عمومی است. او می‌گوید:

بین سال‌های 2015 و 2020، 117 موضوع مربوط به اصول مختلف اصول اخلاقی هوش مصنوعی را منتشر کردند و تعداد آن‌ها رو به رشد است. در مجموع، 91 فقره از اروپا و آمریکای شمالی بیرون آمد. این تعداد بالا نشان می‌دهد که امیدها و نگرانی‌های مربوط به فناوری‌های هوش مصنوعی وجود دارد، اما همچنین علاقه مندی به ساختن نوعی سازوکار اجماع در مورد حاکمیت هوش مصنوعی موجود است. (یونسکو)

وی معتقد است، همه این ابتکارات در حال حرکت به سمت هماهنگی است. گام بزرگ بعدی در اواسط سپتامبر با راه اندازی  Globalpolicy بوجود خواهد آمد، هشت سازمان بین دولتی از جمله کمیسیون اروپا، OECD، سازمان ملل و بانک جهانی را قادر می‌سازد تا در تعریف اصول برای برنامه‌های کاربردی AI در آینده همکاری کنند.

هوش مصنوعی نوید تغییر کم و بیش در هر صنعت، افزایش بهره‌وری، بهبود پیش بینی و حمایت از حرکات برای بهره‌وری بیشتر انرژی را می‌دهد. فناوری‌های مبتنی بر هوش مصنوعی می‌توانند به پیش‌بینی بازده محصول کمک کنند، در حال حاضر در کشف مواد مخدر، استفاده در اتومبیل‌های خودمختار و اتوماتیک سازی کارهای اداری نقش دارند.

در تحلیل‌های بازار 2018، مک کینزی تخمین زده است که فناوری‌های مبتنی بر هوش مصنوعی می‌توانند تا سال 2030، 13 تریلیون دلار به اقتصاد جهانی کمک کنند، که این رقم به 1.2٪ رشد تولید ناخالص داخلی جهانی در سال می‌رسد.

اما خطرات آشکاری وجود دارد. سیستم‌های مجهز به هوش مصنوعی می‌توانند حریم خصوصی را نقض کنند، در حالی که برنامه‌های مبتنی بر داده‌های با کیفیت پایین می‌توانند منجر به سوگیری و تبعیض شوند. در سال 2016، تحقیقات انجام شده توسط سازمان خبری آمریكا Pro Publica نشان داد كه الگوریتمی كه مقامات قانونی آمریكا برای ارزیابی احتمال ارتكاب مجدد جرم جنایی از آن استفاده كرده اند، دارای تعصب نژادی است.

قوانینی برای فناوری‌های هوش مصنوعی برای محدود کردن خطرات در زمینه‌هایی مانند مداخلات بهداشتی، امتیازدهی اعتبار و رتبه بندی بیمه مورد نیاز است.

انتظار می‌رود که این اصول در نهایت با ارزیابی تأثیر نهادینه شده، چارچوب‌های اطمینان و مدیریت ریسک به تعدادی از اصول الزام‌آور و غیر الزام‌آور برای حاکمیت هوش مصنوعی تبدیل شود. لزلی خاطرنشان کرد: «این مکانیسم مهمی است که می‌بینیم همزمان در مکان‌های مختلف در حال پیشرفت است.»

در نمایشی از سطح اجماع جهانی، در ماه نوامبر، 193 کشور انتظار می‌رود که توصیه‌های غیر الزام‌آور یونسکو در مورد اخلاق هوش مصنوعی مبتنی بر حقوق بشر را امضا کنند. کشورها 100 ساعت را صرف مذاکره درباره متن کرده‌اند. «دستیابی به اتفاق نظر در بین تعداد زیادی از کشورهای عضو کار آسانی نیست. اما خبر خوب این است که این بررسی‌ها با توجه به اعلامیه جهانی حقوق بشر شروع می‌شود.»

https://sciencebusiness.net

آیا این نوشته برایتان مفید بود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *