نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

2 آذر 1403 11:45 ق.ظ

محققان هوش مصنوعی بیشتر به سازمان‌های علمی و بین المللی اعتماد دارند

9 آگوست 2021، وسط دانشگاه کرنل اعتبار: CC0 دامنه عمومی

محققانی که در زمینه‌های یادگیری ماشین و هوش مصنوعی کار می‌کنند بیشترین اعتماد را به سازمان‌های بین المللی و علمی دارند تا توسعه و استفاده از هوش مصنوعی را در جهت منافع عمومی شکل دهند.

اما آن‌ها کمترین اعتماد را به نظامیان ملی، شرکت‌های فناوری چینی و فیس بوک دارند.

این‌ها برخی از نتایج یک مطالعه جدید است که توسط بائبائو ژانگ، فوق دکتری کلارمان در کالج علوم و هنرها رهبری شد. مقاله، «اخلاق و حکمرانی هوش مصنوعی: شواهدی از نظرسنجی از محققان یادگیری ماشین»، 2 آگوست در مجله تحقیقات هوش مصنوعی منتشر شد.

ژانگ گفت: «هم شرکت‌های فناوری و هم دولت‌ها تأکید دارند که می‌خواهند هوش مصنوعی قابل اعتماد بسازند. اما چالش ایجاد هوش مصنوعی که می‌توان به آن اعتماد کرد، مستقیماً با اعتمادی که مردم در موسساتی که سیستم‌های هوش مصنوعی را توسعه داده و مدیریت می‌کنند، در ارتباط است.»

هوش مصنوعی تقریباً در همه چیز از توصیه محتوای رسانه‌های اجتماعی گرفته تا اطلاع از تصمیمات استخدام و تشخیص بیماری‌ها در همه جا حضور دارد. اگرچه محققان هوش مصنوعی و یادگیری ماشینی (ML) برای برجسته سازی خطرات جدید و توسعه راه حل‌های فنی در موقعیت مناسبی قرار دارند، ژانگ گفت، اطلاعات زیادی در مورد نگرش‌های این گروه تأثیرگذار در مورد مسائل حکومتی و اخلاقی در دست نیست.

گروه ژانگ دریافت که محققان هوش مصنوعی و ML بیشترین اعتماد را به سازمان‌های علمی غیردولتی و سازمان‌های تحقیقاتی بین دولتی برای توسعه و استفاده از هوش مصنوعی پیشرفته در جهت منافع عمومی دارند. و به سازمان‌های بین المللی مانند سازمان ملل متحد و اتحادیه اروپا اعتماد بیشتری نسبت به مردم آمریکا دارند.

محققان هوش مصنوعی و ML عموماً در اکثر شرکت‌های فناوری غربی و دولت‌ها سطح پایینی از اعتماد را ندارند تا از هوش مصنوعی پیشرفته به منظور منافع عمومی استفاده کنند.

پاسخ دهندگان نظرسنجی عموماً شرکت‌های فناوری غربی را نسبت به شرکت‌های فناوری چینی، به استثنای فیس بوک، نسبتاً معتبر می‌دانند. همین الگو در نگرش آن‌ها به دولت‌ها و ارتش‌های ایالات متحده و چین نیز دیده می‌شود.

این یافته‌ها همچنین نشان می‌دهد که چگونه محققان AI و ML در مورد کاربردهای نظامی AI فکر می‌کنند. به عنوان مثال، مردم آمریکا ارتش ایالات متحده را یکی از قابل اعتمادترین‌ها می‌دانند، در حالی که محققان، از جمله کسانی که در ایالات متحده کار می‌کنند، به ارتش کشورهایی که در آن تحقیق می‌کنند اعتماد ندارند. اگرچه پاسخ دهندگان نظرسنجی اکثراً با محققان AI و ML که بر روی سلاح‌های کشنده خودکار کار می‌کردند مخالف بودند (74٪ تا حدی یا شدیداً مخالف بودند)، اما آن‌ها کمتر با محققانی که بر روی سایر کاربردهای نظامی هوش مصنوعی، به ویژه الگوریتم‌های لجستیک کار می‌کردند، مخالف بودند (تنها 14٪ مخالف بودند).

برنامه‌های کاربردی هوش مصنوعی و ML به طور فزاینده‌ای مورد بررسی قرار می‌گیرند زیرا باعث آسیب‌هایی مانند تبعیض علیه زنان متقاضی شغل، ایجاد ترافیک یا تصادفات در محل کار و شناسایی نادرست افراد سیاه پوست در نرم افزار تشخیص چهره می‌شوند. گروه‌های جامعه مدنی، روزنامه نگاران و دولت‌ها خواستار بررسی بیشتر تحقیقات و استقرار هوش مصنوعی شده‌اند. به نظر می‌رسد اکثریت محققان در نظرسنجی موافق هستند که باید اقدامات بیشتری انجام شود تا آسیب ناشی از تحقیقات آن‌ها به حداقل برسد.

همانطور که نویسندگان خاطر نشان می‌کنند: «یافته‌ها باید به بهبود نحوه تفکر محققان، مدیران بخش خصوصی و سیاست گذاران در مورد مقررات، چارچوب‌های حکمرانی، اصول راهنما و استراتژی‌های حاکمیت ملی و بین المللی برای هوش مصنوعی کمک کند.»

https://techxplore.com

آیا این نوشته برایتان مفید بود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *