توسط جیسون متنی-16 آگوست 2023 واشنگتن پست-رندر دیجیتالی نزدیک از چشم انسان، عکس توسط Vertigo3d/Getty Images
هوش مصنوعی به سرعت در حال پیشرفت است به طوری که بسیاری از کسانی که بخشی از توسعه آن بوده اند، اکنون یکی از پر سر و صداترین افراد در مورد نیاز به تنظیم و نظارت بر آن هستند. در حالی که هوش مصنوعی مزایای زیادی به همراه خواهد داشت، اما به طور بالقوه خطرناک است. میتوان از آن برای ایجاد تسلیحات سایبری یا زیستی یا برای انجام حملات گسترده اطلاعات نادرست استفاده کرد. و اگر یک هوش مصنوعی حتی یک بار به سرقت رفته یا به بیرون درز کند، جلوگیری از گسترش آن در سراسر جهان ممکن است غیرممکن باشد.
این نگرانی ها فرضی نیستند. چنین نشتی در واقع قبلاً رخ داده است. در ماه مارس، یک مدل هوش مصنوعی توسعه یافته توسط متا به نام LLaMA به صورت آنلاین ظاهر شدکه قرار نبود در دسترس عموم قرار گیرد، اما این مدل با محققان هوش مصنوعی به اشتراک گذاشته شد، آنها سپس درخواست دسترسی کامل برای ادامه پروژه های خود کردند. حداقل دو نفر از آنها از اعتماد متا سوء استفاده کردند و مدل را به صورت آنلاین منتشر کردند و متا نتوانسته است LLaMA را از اینترنت حذف کند. این مدل همچنان برای همه قابل دسترسی است.
خوشبختانه LLaMA نسبتا بی ضرر است. در حالی که می توان از آن برای راه اندازی حملات فیشینگ (PDF) استفاده کرد، هنوز دلیلی برای هشدار جدی وجود ندارد. سرقت یا نشت مدل های هوش مصنوعی توانمندتر بسیار بدتر خواهد بود. اما خطرات را می توان با نظارت مؤثر بر سه بخش از زنجیره تأمین هوش مصنوعی کاهش داد: سخت افزار، آموزش و استقرار.
در حالی که هوش مصنوعی مزایای زیادی به همراه خواهد داشت، اما به طور بالقوه خطرناک است. میتوان از آن برای ایجاد تسلیحات سایبری یا زیستی یا برای انجام حملات گسترده اطلاعات نادرست استفاده کرد.
اولین مورد سخت افزاری است. ایجاد مدل های پیشرفته هوش مصنوعی به هزاران ریزتراشه تخصصی نیاز دارد که ده ها یا حتی صدها میلیون دلار هزینه دارد. تنها چند شرکت – مانند Nvidia و AMD – این تراشهها را طراحی میکنند، و بیشتر آنها به ارائهدهندگان بزرگ رایانش ابری مانند آمازون، مایکروسافت و گوگل، و همچنین دولت ایالات متحده، تعداد انگشت شماری از دولتهای خارجی فروخته میشوند. از آنجایی که مجموعه خریداران بسیار کوچک است، یک تنظیم کننده فدرال می تواند با دقت زیادی از تراشه های هوش مصنوعی را ردیابی و مجوز دهد. و ارائهدهندگان ابری که بزرگترین خوشههای تراشههای هوش مصنوعی را دارند، میتوانند مشمول الزامات «مشتری خود را بشناسید» تا مشتریانی را شناسایی کنند که سفارشهای اجارهای بزرگی را ارائه میدهند که نشاندهنده ساخت یک سیستم هوش مصنوعی پیشرفته است.
مرحله بعدی نظارت هوش مصنوعی بر آموزش هر مدل متمرکز است. یک توسعهدهنده میتواند – و باید ملزم به انجام آن باشد – قابلیتهای مخاطرهآمیز یک مدل را در طول آموزش ارزیابی کند. مشکلاتی که زود تشخیص داده می شوند را می توان راحت تر برطرف کرد، بنابراین محصول نهایی ایمن تر و کم هزینه تر را می توان در زمان کمتری ساخت.
پس از تکمیل آموزش، یک مدل هوش مصنوعی قدرتمند باید قبل از انتشار در جهان، توسط یک تنظیم کننده یا ارزیاب شخص ثالث مورد بررسی دقیق قرار گیرد. تیمهای خبره قرمز که وانمود میکنند دشمنان بدخواه هستند، میتوانند سعی کنند هوش مصنوعی را وادار به انجام رفتارهای ناخواسته از جمله طراحی سلاح کنند. سیستمهایی که قابلیتهای خطرناکی از خود نشان میدهند تا زمانی که ایمنی تضمین نشود، نباید آزاد شوند.
مقررات هوش مصنوعی در حال حاضر در بریتانیا، اتحادیه اروپا و چین در حال انجام است. اما بسیاری از مدلهای پیشرفت – و بیشتر سیستمهای هوش مصنوعی پیشرفته که ما را به این لحظه رساندهاند – در ایالات متحده توسعه یافتهاند. خوب است که مدلی از نظارت برای جهان ایجاد کنیم که بر سه بخش زنجیره تامین هوش مصنوعی متمرکز باشد. افزایش ایمنی صنعت هوش مصنوعی آمریکا اعتماد عمومی را در زمانی افزایش میدهد که مصرفکنندگان نسبت به اینکه چه نوع هوش مصنوعی آینده ممکن است محتاط باشند.
این تفسیر ابتدا در واشنگتن پست در 16 آگوست 2023 منتشر شد. تفسیر به محققان RAND بستری میدهد تا بینشهایی را بر اساس تخصص حرفهای خود و اغلب بر اساس تحقیقات و تحلیلهای مورد بازبینی همتایان خود منتقل کنند.