نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

29 تیر 1403 12:52 ق.ظ

استانداردهای معنادار برای حسابرسی هوش مصنوعی با ریسک بالا

14 مارس 2022 -توسط دانشگاه مینه سوتا -اعتبار: دامنه عمومی Pixabay/CC0

هنگام استخدام، بسیاری از سازمان ها از ابزارهای هوش مصنوعی برای اسکن رزومه و پیش بینی مهارت های مرتبط با شغل استفاده می کنند. کالج‌ها و دانشگاه‌ها از هوش مصنوعی برای نمره‌گذاری خودکار مقالات، پردازش رونوشت‌ها و بررسی فعالیت‌های فوق برنامه استفاده می‌کنند تا از پیش تعیین کنند که چه کسی احتمالاً یک “دانشجوی خوب” است. با استفاده از موارد بسیار منحصر به فرد، مهم است که بپرسیم: آیا ابزارهای هوش مصنوعی می توانند تصمیم گیرندگان واقعی بی طرف باشند؟ در پاسخ به ادعاهای ناعادلانه و سوگیری در ابزارهای مورد استفاده در استخدام، پذیرش در کالج، پلیس پیش‌بینی، مداخلات بهداشتی و موارد دیگر، دانشگاه مینه‌سوتا اخیراً مجموعه جدیدی از دستورالعمل‌های حسابرسی را برای ابزارهای هوش مصنوعی توسعه داده است.

دستورالعمل‌های حسابرسی و ممیزی که در American Psychologist منتشر شده است توسط ریچارد لندر، دانشیار روان‌شناسی در دانشگاه مینه‌سوتا و تارا بهرن از دانشگاه پردو تهیه شده است. آنها از یک قرن تحقیق و استانداردهای حرفه ای برای اندازه گیری ویژگی های شخصی توسط محققان روانشناسی و آموزش استفاده می کنند تا از عادلانه بودن هوش مصنوعی اطمینان حاصل کنند.

محققان دستورالعمل‌هایی را برای حسابرسی هوش مصنوعی با در نظر گرفتن ایده‌های انصاف و تعصب از طریق سه نقطه تمرکز اصلی ایجاد کردند:

  • چگونه افراد تصمیم می گیرند که آیا یک تصمیم منصفانه و بی طرفانه بوده است یا خیر
  • معیارهای اجتماعی، قانونی و اخلاقی چگونه انصاف و جانبداری را نشان می دهند
  • چگونه حوزه های فنی فردی – مانند علوم کامپیوتر، آمار و روانشناسی – انصاف و سوگیری را در داخل تعریف می کنند

با استفاده از این لنزها، محققان ممیزی های روانشناختی را به عنوان یک رویکرد استاندارد برای ارزیابی انصاف و تعصب سیستم های هوش مصنوعی ارائه کردند که در مورد انسان ها در زمینه های کاربردی پرمخاطره، مانند استخدام و پذیرش در دانشگاه، پیش بینی می کند.دوازده جزء در چارچوب حسابرسی در سه دسته وجود دارد که عبارتند از:

  • اجزای مربوط به ایجاد، پردازش انجام شده توسط و پیش بینی های ایجاد شده توسط هوش مصنوعی
  • اجزای مربوط به نحوه استفاده از هوش مصنوعی، تصمیمات آن بر چه کسانی و چرا
  • مؤلفه‌های مرتبط با چالش‌های کلی: زمینه فرهنگی که در آن هوش مصنوعی استفاده می‌شود، احترام به افرادی که تحت تأثیر آن قرار می‌گیرند، و یکپارچگی علمی تحقیقاتی که توسط تأمین‌کنندگان هوش مصنوعی برای حمایت از ادعاهای خود استفاده می‌شود.

لندرز می گوید: «استفاده از هوش مصنوعی، به ویژه در استخدام، یک روش قدیمی است، اما پیشرفت های اخیر در پیچیدگی هوش مصنوعی، کمی حس «غرب وحشی» را برای توسعه دهندگان هوش مصنوعی ایجاد کرده است. “اکنون تعداد زیادی استارت آپ وجود دارند که با استانداردهای اخلاقی و قانونی موجود برای استخدام افراد با استفاده از الگوریتم ها آشنا نیستند و گاهی اوقات به دلیل ناآگاهی از رویه های ایجاد شده به مردم آسیب می زنند. ما این چارچوب را برای کمک به اطلاع رسانی به آن شرکت ها و مقامات نظارتی مرتبط ایجاد کردیم. “

محققان استانداردهایی را که توسعه داده‌اند توصیه می‌کنند که هم توسط حسابرسان داخلی در طول توسعه فناوری‌های هوش مصنوعی پیش‌بینی‌کننده با ریسک بالا و هم پس از آن توسط حسابرسان خارجی مستقل رعایت شود. هر سیستمی که ادعا می‌کند توصیه‌های معناداری درباره نحوه رفتار با افراد ارائه می‌کند، باید در این چارچوب ارزیابی شود.

بهرند گفت: «روانشناسان صنعتی در ارزیابی ارزیابی های پرمخاطب تخصص منحصر به فردی دارند. “هدف ما آموزش توسعه دهندگان و کاربران ارزیابی های مبتنی بر هوش مصنوعی در مورد الزامات موجود برای عدالت و اثربخشی و هدایت توسعه سیاست های آینده بود که از کارگران و متقاضیان محافظت می کند.”

مدل‌های هوش مصنوعی به سرعت در حال توسعه هستند، به طوری که می‌توان با مناسب‌ترین روش برای ممیزی نوع خاصی از سیستم هوش مصنوعی همراهی کرد. محققان امیدوارند استانداردهای دقیق تری را برای موارد استفاده خاص ایجاد کنند، با سایر سازمان هایی که در سطح جهانی علاقه مند به ایجاد حسابرسی به عنوان یک رویکرد پیش فرض در این موقعیت ها هستند، شریک شوند و در جهت آینده ای بهتر با هوش مصنوعی به طور گسترده تر تلاش کنند.

https://techxplore.com

آیا این نوشته برایتان مفید بود؟

مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *