نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

1 آذر 1403 10:39 ب.ظ

ادوبی و آی‌بی‌ام کد واترمارکینگ هوش مصنوعی را امضا کردند

13 سپتامبر 2023- توسط رایان موریسون

به عنوان بخشی از برنامه های کاخ سفید، شرکت‌های کد هوش مصنوعی داوطلبانه باید محتوای تولید شده توسط هوش مصنوعی را واترمارک کنند و متعهد به مقابله با اطلاعات نادرست باشند.

 کاخ سفید اعلام کرد ادوبی، آی‌بی‌ام و انویدیا از جمله هشت شرکت جدیدی هستند که طرح مدیریت داوطلبانه هوش مصنوعی جو بایدن، رئیس‌جمهور آمریکا،  را امضا کرده‌اند.

این ابتکار که در ابتدا برای آزمایشگاه‌های بزرگ هوش مصنوعی OpenAI، Anthropic و Google DeepMind طراحی شد، برای تشویق امضاکنندگان به حمایت از استانداردهای حاکمیتی خاص، از جمله واترمارک کردن محتوای تولید شده توسط هوش مصنوعی و «تسهیل کشف و گزارش آسیب‌پذیری‌های شخص ثالث در سیستم‌های هوش مصنوعی» طراحی شده است. این خبر در حالی منتشر می‌شود که یک مطالعه جدید نشان می‌دهد که رهبران کسب‌وکار پروژه‌های هوش مصنوعی را به دلیل فقدان راهنمایی و مقررات روشن به تعویق می‌اندازند.

توافق نامه کاخ سفید همچنین امضاکنندگان را به تعهدات ایمنی مانند آزمایش خروجی برای اطلاعات نادرست و خطرات امنیتی نگه می دارد. همچنین انتظار می‌رود که آنها اطلاعاتی را در مورد راه‌های کاهش ریسک با جامعه گسترده‌تر به اشتراک بگذارند و در اقدامات امنیت سایبری سرمایه‌گذاری کنند.

سایر امضاکنندگان این کد داوطلبانه عبارتند از غول CRM و مالک پلتفرم بهره‌وری Slack، Salesforce، شرکت اطلاعاتی ایالات متحده Palantir، سازنده مدل هوش مصنوعی Stable Diffusion، و آزمایشگاه‌های هوش مصنوعی Cohere و Scale AI. نسخه قبلی منتشر شده در ماه جولای شامل امضاهایی از Amazon، Anthropic، Inflection، Google، Meta، Microsoft و OpenAI بود.

هر یک از سازمان‌ها موافقت کردند که فوراً پیاده‌سازی را در کارهایی که توسط دولت به عنوان «اساسی برای آینده هوش مصنوعی» توصیف شده است، آغاز کنند. کاخ سفید در زمان اعلام اولیه اعلام کرد که این ابتکار بر سه اصل مهم برای توسعه هوش مصنوعی تاکید دارد: ایمنی، امنیت و اعتماد. این منعکس کننده اصول مشابهی است که در کتاب سفید هوش مصنوعی بریتانیا که در اوایل سال جاری منتشر شد، بیان شده است.

کاخ سفید اعلام کرد: برای استفاده حداکثری از پتانسیل هوش مصنوعی، دولت بایدن این صنعت را تشویق می کند تا بالاترین استانداردها را رعایت کند تا اطمینان حاصل شود که نوآوری به ضرر حقوق و امنیت آمریکایی ها تمام نمی شود. سوابق هوش مصنوعی موذیانه بودن و شیوع این خطرات را نشان می دهد و شرکت ها متعهد می شوند که هوش مصنوعی را برای کاهش خطرات به کار ببرند.

تصور می شود که مقررات و حاکمیت بهتر به تسریع پذیرش هوش مصنوعی در بازار کمک می کند. برخی از شرکت ها، از جمله IBM، در حال کار بر روی ابزارهایی برای بهبود شفافیت و گزارش دهی هستند. این شامل داده های ردیابی مورد استفاده در آموزش مدل های آن در هر مرحله و گزارش در هر مرحله از آموزش است. با این حال، Fact Sheet همچنین از شرکت‌ها می‌خواهد تا زمانی که تمام خطرات امنیتی برطرف نشده است، از انتشار مشخصات مدل خودداری کنند.

حاکمیت و مقررات

کد داوطلبانه جدید توسط کاخ سفید به عنوان پایه و اساس یک توافق جهانی در مورد توسعه هوش مصنوعی تلقی می شود. تعهدات مشابهی برای انتشار مدل‌ها برای آزمایش شخص ثالث توسط دولت بریتانیا تضمین شده است. در واقع، اصولی که در طرح داوطلبانه دولت بایدن بیان شده است، مشابه اصولی است که بریتانیا به عنوان اولویت‌های بحث در اجلاس آینده امنیت هوش مصنوعی بلچلی بیان کرد. این رویکردهای سبک با نگرش سختگیرانه تر نسبت به هوش مصنوعی که توسط سایر حوزه های قضایی مانند اتحادیه اروپا در قانون آینده هوش مصنوعی اتخاذ شده است، در تضاد است.

https://techmonitor.ai/

آیا این نوشته برایتان مفید بود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *