13 سپتامبر 2023- توسط رایان موریسون
به عنوان بخشی از برنامه های کاخ سفید، شرکتهای کد هوش مصنوعی داوطلبانه باید محتوای تولید شده توسط هوش مصنوعی را واترمارک کنند و متعهد به مقابله با اطلاعات نادرست باشند.
کاخ سفید اعلام کرد ادوبی، آیبیام و انویدیا از جمله هشت شرکت جدیدی هستند که طرح مدیریت داوطلبانه هوش مصنوعی جو بایدن، رئیسجمهور آمریکا، را امضا کردهاند.
این ابتکار که در ابتدا برای آزمایشگاههای بزرگ هوش مصنوعی OpenAI، Anthropic و Google DeepMind طراحی شد، برای تشویق امضاکنندگان به حمایت از استانداردهای حاکمیتی خاص، از جمله واترمارک کردن محتوای تولید شده توسط هوش مصنوعی و «تسهیل کشف و گزارش آسیبپذیریهای شخص ثالث در سیستمهای هوش مصنوعی» طراحی شده است. این خبر در حالی منتشر میشود که یک مطالعه جدید نشان میدهد که رهبران کسبوکار پروژههای هوش مصنوعی را به دلیل فقدان راهنمایی و مقررات روشن به تعویق میاندازند.
توافق نامه کاخ سفید همچنین امضاکنندگان را به تعهدات ایمنی مانند آزمایش خروجی برای اطلاعات نادرست و خطرات امنیتی نگه می دارد. همچنین انتظار میرود که آنها اطلاعاتی را در مورد راههای کاهش ریسک با جامعه گستردهتر به اشتراک بگذارند و در اقدامات امنیت سایبری سرمایهگذاری کنند.
سایر امضاکنندگان این کد داوطلبانه عبارتند از غول CRM و مالک پلتفرم بهرهوری Slack، Salesforce، شرکت اطلاعاتی ایالات متحده Palantir، سازنده مدل هوش مصنوعی Stable Diffusion، و آزمایشگاههای هوش مصنوعی Cohere و Scale AI. نسخه قبلی منتشر شده در ماه جولای شامل امضاهایی از Amazon، Anthropic، Inflection، Google، Meta، Microsoft و OpenAI بود.
هر یک از سازمانها موافقت کردند که فوراً پیادهسازی را در کارهایی که توسط دولت به عنوان «اساسی برای آینده هوش مصنوعی» توصیف شده است، آغاز کنند. کاخ سفید در زمان اعلام اولیه اعلام کرد که این ابتکار بر سه اصل مهم برای توسعه هوش مصنوعی تاکید دارد: ایمنی، امنیت و اعتماد. این منعکس کننده اصول مشابهی است که در کتاب سفید هوش مصنوعی بریتانیا که در اوایل سال جاری منتشر شد، بیان شده است.
کاخ سفید اعلام کرد: برای استفاده حداکثری از پتانسیل هوش مصنوعی، دولت بایدن این صنعت را تشویق می کند تا بالاترین استانداردها را رعایت کند تا اطمینان حاصل شود که نوآوری به ضرر حقوق و امنیت آمریکایی ها تمام نمی شود. سوابق هوش مصنوعی موذیانه بودن و شیوع این خطرات را نشان می دهد و شرکت ها متعهد می شوند که هوش مصنوعی را برای کاهش خطرات به کار ببرند.
تصور می شود که مقررات و حاکمیت بهتر به تسریع پذیرش هوش مصنوعی در بازار کمک می کند. برخی از شرکت ها، از جمله IBM، در حال کار بر روی ابزارهایی برای بهبود شفافیت و گزارش دهی هستند. این شامل داده های ردیابی مورد استفاده در آموزش مدل های آن در هر مرحله و گزارش در هر مرحله از آموزش است. با این حال، Fact Sheet همچنین از شرکتها میخواهد تا زمانی که تمام خطرات امنیتی برطرف نشده است، از انتشار مشخصات مدل خودداری کنند.
حاکمیت و مقررات
کد داوطلبانه جدید توسط کاخ سفید به عنوان پایه و اساس یک توافق جهانی در مورد توسعه هوش مصنوعی تلقی می شود. تعهدات مشابهی برای انتشار مدلها برای آزمایش شخص ثالث توسط دولت بریتانیا تضمین شده است. در واقع، اصولی که در طرح داوطلبانه دولت بایدن بیان شده است، مشابه اصولی است که بریتانیا به عنوان اولویتهای بحث در اجلاس آینده امنیت هوش مصنوعی بلچلی بیان کرد. این رویکردهای سبک با نگرش سختگیرانه تر نسبت به هوش مصنوعی که توسط سایر حوزه های قضایی مانند اتحادیه اروپا در قانون آینده هوش مصنوعی اتخاذ شده است، در تضاد است.