نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

12 اردیبهشت 1403 6:37 ب.ظ

پیشنهاد مدیر عامل OpenAI مبنی بر نظارت سازمان ملل بر هوش مصنوعی

6 ژوئن 2023 -توسط جان گامبرل -سام آلتمن، مدیر عامل OpenAI، در ابوظبی، امارات متحده عربی، 6 ژوئن 2023 صحبت می کند. آلتمن پیشنهاد کرد یک آژانس بین المللی مانند آژانس بین المللی انرژی اتمی می تواند بر هوش مصنوعی در سراسر جهان نظارت کند. اعتبار: AP Photo/Jon Gambrell

یک مبتکر کلیدی در جریان بازدید از امارات متحده عربی هشدار داد که هوش مصنوعی یک “خطر وجودی” برای بشریت ایجاد می کند و به آژانس بین المللی مانند آژانس بین المللی انرژی اتمی پیشنهاد کرد که بر این فناوری نوآور نظارت کند.

سام آلتمن، مدیر عامل OpenAI در یک تور جهانی برای بحث در مورد هوش مصنوعی است.

آلتمن، 38 ساله، گفت: “ما با خطر جدی روبرو هستیم. ما با خطر وجودی روبرو هستیم. چالشی که جهان دارد این است که چگونه این خطرات را مدیریت می کنیم و مطمئن می شویم که هنوز از آن مزایای فوق العاده بهره مند می شویم. هیچ کس نمی خواهد دنیا را نابود کن.”

ChatGPT OpenAI، یک چت ربات محبوب، توجه جهانیان را به خود جلب کرده است زیرا پاسخ‌هایی شبیه به مقاله به درخواست‌های کاربران ارائه می‌دهد. مایکروسافت حدود 1 میلیارد دلار در OpenAI سرمایه گذاری کرده است.

موفقیت ChatGPT، ارائه نگاهی اجمالی به روشی که هوش مصنوعی می‌تواند شیوه کار و یادگیری انسان‌ها را تغییر دهد، نگرانی‌هایی را نیز برانگیخته است. صدها تن از رهبران صنعت، از جمله آلتمن، نامه‌ای را در ماه مه امضا کرده‌اند که هشدار می‌دهد «کاهش خطر انقراض ناشی از هوش مصنوعی باید یک اولویت جهانی در کنار سایر خطرات در مقیاس اجتماعی مانند همه‌گیری‌ها و جنگ هسته‌ای باشد».

آلتمن با اشاره به آژانس بین‌المللی انرژی اتمی، ناظر هسته‌ای سازمان ملل، به عنوان نمونه‌ای از چگونگی گرد هم آمدن جهان برای نظارت بر انرژی هسته‌ای اشاره کرد. این آژانس در سال‌های پس از پرتاب بمب‌های اتمی آمریکا به ژاپن در پایان جنگ جهانی دوم ایجاد شد.

آلتمن گفت: “بیایید مطمئن شویم که به عنوان یک جهان گرد هم می آییم – و امیدوارم این مکان بتواند نقش واقعی را در این امر ایفا کند.” ما در مورد آژانس بین‌المللی انرژی اتمی به‌عنوان مدلی صحبت می‌کنیم که در آن جهان می‌گوید خوب، فناوری بسیار خطرناک، بیایید همگی چند نرده محافظ بگذاریم. و من فکر می کنم ما می توانیم هر دو را انجام دهیم.

“من فکر می کنم در این مورد، این یک پیام ظریف است “زیرا می گوید امروز آنقدرها خطرناک نیست اما می تواند به سرعت خطرناک شود. اما ما می توانیم آن سوزن را نخ کنیم.”

قانونگذاران سراسر جهان نیز در حال بررسی هوش مصنوعی هستند. اتحادیه اروپا متشکل از 27 کشور در حال پیگیری قانون هوش مصنوعی است که می تواند به استاندارد جهانی هوش مصنوعی تبدیل شود. آلتمن در ماه مه به کنگره ایالات متحده گفت که مداخله دولت برای کنترل خطرات ناشی از هوش مصنوعی بسیار مهم است.

اما امارات متحده عربی، یک فدراسیون متشکل از هفت شیخ نشین که به طور موروثی حکومت می کنند، جنبه دیگری از خطرات هوش مصنوعی را ارائه می دهد. گفتار به شدت کنترل می شود. گروه های حقوق بشر به امارات متحده عربی و سایر کشورهای حاشیه خلیج فارس به طور منظم از نرم افزارهای جاسوسی برای نظارت بر فعالان، روزنامه نگاران و دیگران استفاده می کنند. این محدودیت‌ها بر جریان اطلاعات دقیق تأثیر می‌گذارند – همان جزئیاتی که برنامه‌های هوش مصنوعی مانند ChatGPT به عنوان سیستم‌های یادگیری ماشینی برای ارائه پاسخ‌های خود به کاربران به آن تکیه می‌کنند.

از جمله سخنرانانی که در رویداد بازار جهانی ابوظبی برای Altman افتتاح شد، اندرو جکسون، مدیر عامل مؤسسه اولیه هوش مصنوعی، که به عنوان یک شرکت G42 توصیف می شود، بود.

G42 با شیخ طحنون بن زاید آل نهیان، مشاور امنیت ملی قدرتمند ابوظبی و معاون حاکم وابسته است. مدیر عامل G42 پنگ شیائو است که سال‌ها پگاسوس را اداره می‌کرد، یکی از شرکت‌های امنیتی DarkMatter، یک شرکت امنیتی اماراتی که برای استخدام کارمندان سابق سیا و آژانس امنیت ملی و همچنین افراد دیگری از اسرائیل تحت نظر بود. G42 همچنین دارای یک اپلیکیشن تماس ویدیویی و صوتی است که بنا به گزارش ها ابزار جاسوسی برای دولت امارات بوده است.

جکسون در اظهارات خود، خود را نماینده “اکوسیستم هوش مصنوعی ابوظبی و امارات متحده عربی” توصیف کرد.او گفت: «ما یک نیروگاه سیاسی هستیم و در تنظیم مقررات هوش مصنوعی در سطح جهانی نقش محوری خواهیم داشت.

https://techxplore.com

آیا این نوشته برایتان مفید بود؟

مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *