نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

2 آذر 1403 10:45 ق.ظ

مدلی برای تنظیم هوش مصنوعی

توسط جیسون متنی-16 آگوست 2023 واشنگتن پست-رندر دیجیتالی نزدیک از چشم انسان، عکس توسط Vertigo3d/Getty Images

هوش مصنوعی به سرعت در حال پیشرفت است به طوری که بسیاری از کسانی که بخشی از توسعه آن بوده اند، اکنون یکی از پر سر و صداترین افراد در مورد نیاز به تنظیم و نظارت بر آن هستند. در حالی که هوش مصنوعی مزایای زیادی به همراه خواهد داشت، اما به طور بالقوه خطرناک است. می‌توان از آن برای ایجاد تسلیحات سایبری یا زیستی یا برای انجام حملات گسترده اطلاعات نادرست استفاده کرد. و اگر یک هوش مصنوعی حتی یک بار به سرقت رفته یا به بیرون درز کند، جلوگیری از گسترش آن در سراسر جهان ممکن است غیرممکن باشد.

این نگرانی ها فرضی نیستند. چنین نشتی در واقع قبلاً رخ داده است. در ماه مارس، یک مدل هوش مصنوعی توسعه یافته توسط متا به نام LLaMA به صورت آنلاین ظاهر شدکه قرار نبود در دسترس عموم قرار گیرد، اما این مدل با محققان هوش مصنوعی به اشتراک گذاشته شد، آنها سپس درخواست دسترسی کامل برای ادامه پروژه های خود کردند. حداقل دو نفر از آنها از اعتماد متا سوء استفاده کردند و مدل را به صورت آنلاین منتشر کردند و متا نتوانسته است LLaMA را از اینترنت حذف کند. این مدل همچنان برای همه قابل دسترسی است.

خوشبختانه LLaMA نسبتا بی ضرر است. در حالی که می توان از آن برای راه اندازی حملات فیشینگ (PDF) استفاده کرد، هنوز دلیلی برای هشدار جدی وجود ندارد. سرقت یا نشت مدل های هوش مصنوعی توانمندتر بسیار بدتر خواهد بود. اما خطرات را می توان با نظارت مؤثر بر سه بخش از زنجیره تأمین هوش مصنوعی کاهش داد: سخت افزار، آموزش و استقرار.

در حالی که هوش مصنوعی مزایای زیادی به همراه خواهد داشت، اما به طور بالقوه خطرناک است. می‌توان از آن برای ایجاد تسلیحات سایبری یا زیستی یا برای انجام حملات گسترده اطلاعات نادرست استفاده کرد.

اولین مورد سخت افزاری است. ایجاد مدل های پیشرفته هوش مصنوعی به هزاران ریزتراشه تخصصی نیاز دارد که ده ها یا حتی صدها میلیون دلار هزینه دارد. تنها چند شرکت – مانند Nvidia و AMD – این تراشه‌ها را طراحی می‌کنند، و بیشتر آنها به ارائه‌دهندگان بزرگ رایانش ابری مانند آمازون، مایکروسافت و گوگل، و همچنین دولت ایالات متحده، تعداد انگشت شماری از دولت‌های خارجی فروخته می‌شوند. از آنجایی که مجموعه خریداران بسیار کوچک است، یک تنظیم کننده فدرال می تواند با دقت زیادی از تراشه های هوش مصنوعی را ردیابی و مجوز دهد. و ارائه‌دهندگان ابری که بزرگترین خوشه‌های تراشه‌های هوش مصنوعی را دارند، می‌توانند مشمول الزامات «مشتری خود را بشناسید» تا مشتریانی را شناسایی کنند که سفارش‌های اجاره‌ای بزرگی را ارائه می‌دهند که نشان‌دهنده ساخت یک سیستم هوش مصنوعی پیشرفته است.

مرحله بعدی نظارت هوش مصنوعی بر آموزش هر مدل متمرکز است. یک توسعه‌دهنده می‌تواند – و باید ملزم به انجام آن باشد – قابلیت‌های مخاطره‌آمیز یک مدل را در طول آموزش ارزیابی کند. مشکلاتی که زود تشخیص داده می شوند را می توان راحت تر برطرف کرد، بنابراین محصول نهایی ایمن تر و کم هزینه تر را می توان در زمان کمتری ساخت.

پس از تکمیل آموزش، یک مدل هوش مصنوعی قدرتمند باید قبل از انتشار در جهان، توسط یک تنظیم کننده یا ارزیاب شخص ثالث مورد بررسی دقیق قرار گیرد. تیم‌های خبره قرمز که وانمود می‌کنند دشمنان بدخواه هستند، می‌توانند سعی کنند هوش مصنوعی را وادار به انجام رفتارهای ناخواسته از جمله طراحی سلاح کنند. سیستم‌هایی که قابلیت‌های خطرناکی از خود نشان می‌دهند تا زمانی که ایمنی تضمین نشود، نباید آزاد شوند.

مقررات هوش مصنوعی در حال حاضر در بریتانیا، اتحادیه اروپا و چین در حال انجام است. اما بسیاری از مدل‌های پیشرفت – و بیشتر سیستم‌های هوش مصنوعی پیشرفته که ما را به این لحظه رسانده‌اند – در ایالات متحده توسعه یافته‌اند. خوب است که مدلی از نظارت برای جهان ایجاد کنیم که بر سه بخش زنجیره تامین هوش مصنوعی متمرکز باشد. افزایش ایمنی صنعت هوش مصنوعی آمریکا اعتماد عمومی را در زمانی افزایش می‌دهد که مصرف‌کنندگان نسبت به اینکه چه نوع هوش مصنوعی آینده ممکن است محتاط باشند.

این تفسیر ابتدا در واشنگتن پست در 16 آگوست 2023 منتشر شد. تفسیر به محققان RAND بستری می‌دهد تا بینش‌هایی را بر اساس تخصص حرفه‌ای خود و اغلب بر اساس تحقیقات و تحلیل‌های مورد بازبینی همتایان خود منتقل کنند.

https://www.rand.org

آیا این نوشته برایتان مفید بود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *