نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

31 شهریور 1403 2:28 ق.ظ

بررسی چشم انداز ابزار برای هوش مصنوعی قابل اعتماد در بریتانیا و ایالات متحده

بررسی چشم انداز ابزار برای هوش مصنوعی قابل اعتماد در بریتانیا و ایالات متحده

منتشر شده در 14 مه 2024-توسط سالیل گوناشکار، هنری ون سوست، میشل کو، کریسا پولیتی، ماریا کیارا آکیلینو، گریگوری اسمیت

سوالات تحقیق

  • چشم انداز ابزار برای هوش مصنوعی قابل اعتماد در بریتانیا و ایالات متحده چگونه است؟
  • چه اقدامات عملی باید در نظر گرفته شود تا در آینده همسویی بریتانیا و ایالات متحده و همکاری در زمینه ابزارهایی برای هوش مصنوعی قابل اعتماد در نظر گرفته شود؟

در طول سال‌ها، چارچوب‌ها، اعلامیه‌ها و اصول سازمان‌های مختلف در سراسر جهان برای هدایت توسعه هوش مصنوعی قابل اعتماد (AI) وجود داشته است. این چارچوب ها پایه های نتایج و اهداف مطلوب سیستم های هوش مصنوعی قابل اعتماد مانند ایمنی، انصاف، شفافیت، مسئولیت پذیری و حریم خصوصی را بیان می کنند. با این حال، آنها راهنمایی خاصی در مورد چگونگی دستیابی به این اهداف، نتایج و الزامات در عمل ارائه نمی دهند. اینجاست که ابزارهایی برای هوش مصنوعی قابل اعتماد اهمیت پیدا می کنند. به طور کلی، این ابزارها شامل روش‌ها، تکنیک‌ها، مکانیسم‌ها و شیوه‌های خاصی است که می‌تواند به اندازه‌گیری، ارزیابی، برقراری ارتباط، بهبود و افزایش قابلیت اعتماد سیستم‌ها و برنامه‌های هوش مصنوعی کمک کند.

در پس زمینه یک اکوسیستم جهانی هوش مصنوعی سریع در حال حرکت و پیچیده تر، این مطالعه نمونه های بریتانیا و ایالات متحده از توسعه، استقرار و استفاده از ابزارهایی برای هوش مصنوعی قابل اعتماد را ترسیم کرد. این تحقیق همچنین برخی از چالش‌ها و فرصت‌ها را برای همسویی و همکاری بریتانیا و ایالات متحده در این موضوع شناسایی کرد و مجموعه‌ای از اقدامات اولویت‌دار عملی را برای بررسی بیشتر توسط سیاست‌گذاران پیشنهاد کرد. هدف از شواهد این گزارش اطلاع‌رسانی به جنبه‌های همکاری دوجانبه آینده بین بریتانیا و دولت‌های ایالات متحده در رابطه با ابزارهایی برای هوش مصنوعی قابل اعتماد است. تجزیه و تحلیل ما همچنین قصد دارد بحث و گفتگوی بیشتری را بین ذینفعان تحریک کند زیرا قابلیت ها و کاربردهای هوش مصنوعی همچنان در حال رشد هستند و نیاز به هوش مصنوعی قابل اعتماد حتی حیاتی تر می شود.

یافته های کلیدی

  • چشم انداز هوش مصنوعی قابل اعتماد در بریتانیا و ایالات متحده پیچیده و چند وجهی است. در حال تکامل بوده و از اصول به عمل می‌رود، با دستورالعمل‌های سطح بالا که به طور فزاینده‌ای با ابزارهای خاص و کاربردی‌تر تکمیل می‌شوند.
  • نشان دهنده یک چشم انداز بالقوه تکه تکه شده، ما بیش از 230 ابزار را برای هوش مصنوعی قابل اعتماد شناسایی کردیم.
  • چشم انداز ابزارها برای هوش مصنوعی قابل اعتماد در ایالات متحده ماهیت فنی بیشتری دارد، در حالی که چشم انداز بریتانیا بیشتر رویه ای است.
  • در مقایسه با بریتانیا، ایالات متحده دارای درجه بیشتری از مشارکت دانشگاهیان در توسعه ابزارهایی برای هوش مصنوعی قابل اعتماد است.
  • شرکت های بزرگ فناوری ایالات متحده در حال توسعه ابزارهای گسترده ای هستند تا محصولات و خدمات هوش مصنوعی را قابل اعتمادتر کنند.
  • برخی از شرکت‌های غیر AI در حال توسعه دستورالعمل‌های داخلی خود در مورد قابلیت اعتماد هوش مصنوعی هستند تا اطمینان حاصل کنند که با اصول اخلاقی مطابقت دارند.
  • شواهد محدودی در مورد ارزیابی رسمی ابزارها برای هوش مصنوعی قابل اعتماد وجود دارد.
  • توسعه مدل‌های پایه چندوجهی، پیچیدگی توسعه ابزار برای هوش مصنوعی قابل اعتماد را افزایش داده است.

توصیه ها

  • اقدام 1: با ذینفعان مرتبط ارتباط برقرار کنید تا به طور فعال چشم انداز ابزارها برای هوش مصنوعی قابل اعتماد در بریتانیا، ایالات متحده و فراتر از آن را ردیابی و تجزیه و تحلیل کنید.
  • اقدام 2: به طور سیستماتیک تجارب و درس های آموخته شده در مورد ابزارهای هوش مصنوعی قابل اعتماد را ضبط کنید، آن بینش ها را با سهامداران به اشتراک بگذارید و از آنها برای پیش بینی مسیرهای بالقوه آینده استفاده کنید.
  • اقدام 3: ترویج استفاده مداوم از واژگان مشترک برای هوش مصنوعی قابل اعتماد در میان ذینفعان در بریتانیا و ایالات متحده.
  • اقدام 4: تشویق به گنجاندن فرآیندهای ارزیابی در توسعه و استفاده از ابزارهایی برای هوش مصنوعی قابل اعتماد برای به دست آوردن درک بهتری از اثربخشی آنها.
  • اقدام 5: به مشارکت و ایجاد ائتلاف های متنوع با سازمان ها و ابتکارات بین المللی ادامه دهید و ابزارهای قابل همکاری برای هوش مصنوعی قابل اعتماد را ارتقا دهید.
  • اقدام 6: برای تأمین منابعی مانند داده ها و قدرت محاسباتی برای پشتیبانی و دموکراتیک کردن توسعه

ابزار برای هوش مصنوعی قابل اعتماد.

https://www.rand.org

آیا این نوشته برایتان مفید بود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *