
منتشر شده در 14 مه 2024-توسط سالیل گوناشکار، هنری ون سوست، میشل کو، کریسا پولیتی، ماریا کیارا آکیلینو، گریگوری اسمیت
سوالات تحقیق
- چشم انداز ابزار برای هوش مصنوعی قابل اعتماد در بریتانیا و ایالات متحده چگونه است؟
- چه اقدامات عملی باید در نظر گرفته شود تا در آینده همسویی بریتانیا و ایالات متحده و همکاری در زمینه ابزارهایی برای هوش مصنوعی قابل اعتماد در نظر گرفته شود؟
در طول سالها، چارچوبها، اعلامیهها و اصول سازمانهای مختلف در سراسر جهان برای هدایت توسعه هوش مصنوعی قابل اعتماد (AI) وجود داشته است. این چارچوب ها پایه های نتایج و اهداف مطلوب سیستم های هوش مصنوعی قابل اعتماد مانند ایمنی، انصاف، شفافیت، مسئولیت پذیری و حریم خصوصی را بیان می کنند. با این حال، آنها راهنمایی خاصی در مورد چگونگی دستیابی به این اهداف، نتایج و الزامات در عمل ارائه نمی دهند. اینجاست که ابزارهایی برای هوش مصنوعی قابل اعتماد اهمیت پیدا می کنند. به طور کلی، این ابزارها شامل روشها، تکنیکها، مکانیسمها و شیوههای خاصی است که میتواند به اندازهگیری، ارزیابی، برقراری ارتباط، بهبود و افزایش قابلیت اعتماد سیستمها و برنامههای هوش مصنوعی کمک کند.
در پس زمینه یک اکوسیستم جهانی هوش مصنوعی سریع در حال حرکت و پیچیده تر، این مطالعه نمونه های بریتانیا و ایالات متحده از توسعه، استقرار و استفاده از ابزارهایی برای هوش مصنوعی قابل اعتماد را ترسیم کرد. این تحقیق همچنین برخی از چالشها و فرصتها را برای همسویی و همکاری بریتانیا و ایالات متحده در این موضوع شناسایی کرد و مجموعهای از اقدامات اولویتدار عملی را برای بررسی بیشتر توسط سیاستگذاران پیشنهاد کرد. هدف از شواهد این گزارش اطلاعرسانی به جنبههای همکاری دوجانبه آینده بین بریتانیا و دولتهای ایالات متحده در رابطه با ابزارهایی برای هوش مصنوعی قابل اعتماد است. تجزیه و تحلیل ما همچنین قصد دارد بحث و گفتگوی بیشتری را بین ذینفعان تحریک کند زیرا قابلیت ها و کاربردهای هوش مصنوعی همچنان در حال رشد هستند و نیاز به هوش مصنوعی قابل اعتماد حتی حیاتی تر می شود.
یافته های کلیدی
- چشم انداز هوش مصنوعی قابل اعتماد در بریتانیا و ایالات متحده پیچیده و چند وجهی است. در حال تکامل بوده و از اصول به عمل میرود، با دستورالعملهای سطح بالا که به طور فزایندهای با ابزارهای خاص و کاربردیتر تکمیل میشوند.
- نشان دهنده یک چشم انداز بالقوه تکه تکه شده، ما بیش از 230 ابزار را برای هوش مصنوعی قابل اعتماد شناسایی کردیم.
- چشم انداز ابزارها برای هوش مصنوعی قابل اعتماد در ایالات متحده ماهیت فنی بیشتری دارد، در حالی که چشم انداز بریتانیا بیشتر رویه ای است.
- در مقایسه با بریتانیا، ایالات متحده دارای درجه بیشتری از مشارکت دانشگاهیان در توسعه ابزارهایی برای هوش مصنوعی قابل اعتماد است.
- شرکت های بزرگ فناوری ایالات متحده در حال توسعه ابزارهای گسترده ای هستند تا محصولات و خدمات هوش مصنوعی را قابل اعتمادتر کنند.
- برخی از شرکتهای غیر AI در حال توسعه دستورالعملهای داخلی خود در مورد قابلیت اعتماد هوش مصنوعی هستند تا اطمینان حاصل کنند که با اصول اخلاقی مطابقت دارند.
- شواهد محدودی در مورد ارزیابی رسمی ابزارها برای هوش مصنوعی قابل اعتماد وجود دارد.
- توسعه مدلهای پایه چندوجهی، پیچیدگی توسعه ابزار برای هوش مصنوعی قابل اعتماد را افزایش داده است.
توصیه ها
- اقدام 1: با ذینفعان مرتبط ارتباط برقرار کنید تا به طور فعال چشم انداز ابزارها برای هوش مصنوعی قابل اعتماد در بریتانیا، ایالات متحده و فراتر از آن را ردیابی و تجزیه و تحلیل کنید.
- اقدام 2: به طور سیستماتیک تجارب و درس های آموخته شده در مورد ابزارهای هوش مصنوعی قابل اعتماد را ضبط کنید، آن بینش ها را با سهامداران به اشتراک بگذارید و از آنها برای پیش بینی مسیرهای بالقوه آینده استفاده کنید.
- اقدام 3: ترویج استفاده مداوم از واژگان مشترک برای هوش مصنوعی قابل اعتماد در میان ذینفعان در بریتانیا و ایالات متحده.
- اقدام 4: تشویق به گنجاندن فرآیندهای ارزیابی در توسعه و استفاده از ابزارهایی برای هوش مصنوعی قابل اعتماد برای به دست آوردن درک بهتری از اثربخشی آنها.
- اقدام 5: به مشارکت و ایجاد ائتلاف های متنوع با سازمان ها و ابتکارات بین المللی ادامه دهید و ابزارهای قابل همکاری برای هوش مصنوعی قابل اعتماد را ارتقا دهید.
- اقدام 6: برای تأمین منابعی مانند داده ها و قدرت محاسباتی برای پشتیبانی و دموکراتیک کردن توسعه
ابزار برای هوش مصنوعی قابل اعتماد.