9 آگوست 2021، وسط دانشگاه کرنل اعتبار: CC0 دامنه عمومی
محققانی که در زمینههای یادگیری ماشین و هوش مصنوعی کار میکنند بیشترین اعتماد را به سازمانهای بین المللی و علمی دارند تا توسعه و استفاده از هوش مصنوعی را در جهت منافع عمومی شکل دهند.
اما آنها کمترین اعتماد را به نظامیان ملی، شرکتهای فناوری چینی و فیس بوک دارند.
اینها برخی از نتایج یک مطالعه جدید است که توسط بائبائو ژانگ، فوق دکتری کلارمان در کالج علوم و هنرها رهبری شد. مقاله، «اخلاق و حکمرانی هوش مصنوعی: شواهدی از نظرسنجی از محققان یادگیری ماشین»، 2 آگوست در مجله تحقیقات هوش مصنوعی منتشر شد.
ژانگ گفت: «هم شرکتهای فناوری و هم دولتها تأکید دارند که میخواهند هوش مصنوعی قابل اعتماد بسازند. اما چالش ایجاد هوش مصنوعی که میتوان به آن اعتماد کرد، مستقیماً با اعتمادی که مردم در موسساتی که سیستمهای هوش مصنوعی را توسعه داده و مدیریت میکنند، در ارتباط است.»
هوش مصنوعی تقریباً در همه چیز از توصیه محتوای رسانههای اجتماعی گرفته تا اطلاع از تصمیمات استخدام و تشخیص بیماریها در همه جا حضور دارد. اگرچه محققان هوش مصنوعی و یادگیری ماشینی (ML) برای برجسته سازی خطرات جدید و توسعه راه حلهای فنی در موقعیت مناسبی قرار دارند، ژانگ گفت، اطلاعات زیادی در مورد نگرشهای این گروه تأثیرگذار در مورد مسائل حکومتی و اخلاقی در دست نیست.
گروه ژانگ دریافت که محققان هوش مصنوعی و ML بیشترین اعتماد را به سازمانهای علمی غیردولتی و سازمانهای تحقیقاتی بین دولتی برای توسعه و استفاده از هوش مصنوعی پیشرفته در جهت منافع عمومی دارند. و به سازمانهای بین المللی مانند سازمان ملل متحد و اتحادیه اروپا اعتماد بیشتری نسبت به مردم آمریکا دارند.
محققان هوش مصنوعی و ML عموماً در اکثر شرکتهای فناوری غربی و دولتها سطح پایینی از اعتماد را ندارند تا از هوش مصنوعی پیشرفته به منظور منافع عمومی استفاده کنند.
پاسخ دهندگان نظرسنجی عموماً شرکتهای فناوری غربی را نسبت به شرکتهای فناوری چینی، به استثنای فیس بوک، نسبتاً معتبر میدانند. همین الگو در نگرش آنها به دولتها و ارتشهای ایالات متحده و چین نیز دیده میشود.
این یافتهها همچنین نشان میدهد که چگونه محققان AI و ML در مورد کاربردهای نظامی AI فکر میکنند. به عنوان مثال، مردم آمریکا ارتش ایالات متحده را یکی از قابل اعتمادترینها میدانند، در حالی که محققان، از جمله کسانی که در ایالات متحده کار میکنند، به ارتش کشورهایی که در آن تحقیق میکنند اعتماد ندارند. اگرچه پاسخ دهندگان نظرسنجی اکثراً با محققان AI و ML که بر روی سلاحهای کشنده خودکار کار میکردند مخالف بودند (74٪ تا حدی یا شدیداً مخالف بودند)، اما آنها کمتر با محققانی که بر روی سایر کاربردهای نظامی هوش مصنوعی، به ویژه الگوریتمهای لجستیک کار میکردند، مخالف بودند (تنها 14٪ مخالف بودند).
برنامههای کاربردی هوش مصنوعی و ML به طور فزایندهای مورد بررسی قرار میگیرند زیرا باعث آسیبهایی مانند تبعیض علیه زنان متقاضی شغل، ایجاد ترافیک یا تصادفات در محل کار و شناسایی نادرست افراد سیاه پوست در نرم افزار تشخیص چهره میشوند. گروههای جامعه مدنی، روزنامه نگاران و دولتها خواستار بررسی بیشتر تحقیقات و استقرار هوش مصنوعی شدهاند. به نظر میرسد اکثریت محققان در نظرسنجی موافق هستند که باید اقدامات بیشتری انجام شود تا آسیب ناشی از تحقیقات آنها به حداقل برسد.
همانطور که نویسندگان خاطر نشان میکنند: «یافتهها باید به بهبود نحوه تفکر محققان، مدیران بخش خصوصی و سیاست گذاران در مورد مقررات، چارچوبهای حکمرانی، اصول راهنما و استراتژیهای حاکمیت ملی و بین المللی برای هوش مصنوعی کمک کند.»