14 مارس 2022 -توسط دانشگاه مینه سوتا -اعتبار: دامنه عمومی Pixabay/CC0
هنگام استخدام، بسیاری از سازمان ها از ابزارهای هوش مصنوعی برای اسکن رزومه و پیش بینی مهارت های مرتبط با شغل استفاده می کنند. کالجها و دانشگاهها از هوش مصنوعی برای نمرهگذاری خودکار مقالات، پردازش رونوشتها و بررسی فعالیتهای فوق برنامه استفاده میکنند تا از پیش تعیین کنند که چه کسی احتمالاً یک “دانشجوی خوب” است. با استفاده از موارد بسیار منحصر به فرد، مهم است که بپرسیم: آیا ابزارهای هوش مصنوعی می توانند تصمیم گیرندگان واقعی بی طرف باشند؟ در پاسخ به ادعاهای ناعادلانه و سوگیری در ابزارهای مورد استفاده در استخدام، پذیرش در کالج، پلیس پیشبینی، مداخلات بهداشتی و موارد دیگر، دانشگاه مینهسوتا اخیراً مجموعه جدیدی از دستورالعملهای حسابرسی را برای ابزارهای هوش مصنوعی توسعه داده است.
دستورالعملهای حسابرسی و ممیزی که در American Psychologist منتشر شده است توسط ریچارد لندر، دانشیار روانشناسی در دانشگاه مینهسوتا و تارا بهرن از دانشگاه پردو تهیه شده است. آنها از یک قرن تحقیق و استانداردهای حرفه ای برای اندازه گیری ویژگی های شخصی توسط محققان روانشناسی و آموزش استفاده می کنند تا از عادلانه بودن هوش مصنوعی اطمینان حاصل کنند.
محققان دستورالعملهایی را برای حسابرسی هوش مصنوعی با در نظر گرفتن ایدههای انصاف و تعصب از طریق سه نقطه تمرکز اصلی ایجاد کردند:
- چگونه افراد تصمیم می گیرند که آیا یک تصمیم منصفانه و بی طرفانه بوده است یا خیر
- معیارهای اجتماعی، قانونی و اخلاقی چگونه انصاف و جانبداری را نشان می دهند
- چگونه حوزه های فنی فردی – مانند علوم کامپیوتر، آمار و روانشناسی – انصاف و سوگیری را در داخل تعریف می کنند
با استفاده از این لنزها، محققان ممیزی های روانشناختی را به عنوان یک رویکرد استاندارد برای ارزیابی انصاف و تعصب سیستم های هوش مصنوعی ارائه کردند که در مورد انسان ها در زمینه های کاربردی پرمخاطره، مانند استخدام و پذیرش در دانشگاه، پیش بینی می کند.دوازده جزء در چارچوب حسابرسی در سه دسته وجود دارد که عبارتند از:
- اجزای مربوط به ایجاد، پردازش انجام شده توسط و پیش بینی های ایجاد شده توسط هوش مصنوعی
- اجزای مربوط به نحوه استفاده از هوش مصنوعی، تصمیمات آن بر چه کسانی و چرا
- مؤلفههای مرتبط با چالشهای کلی: زمینه فرهنگی که در آن هوش مصنوعی استفاده میشود، احترام به افرادی که تحت تأثیر آن قرار میگیرند، و یکپارچگی علمی تحقیقاتی که توسط تأمینکنندگان هوش مصنوعی برای حمایت از ادعاهای خود استفاده میشود.
لندرز می گوید: «استفاده از هوش مصنوعی، به ویژه در استخدام، یک روش قدیمی است، اما پیشرفت های اخیر در پیچیدگی هوش مصنوعی، کمی حس «غرب وحشی» را برای توسعه دهندگان هوش مصنوعی ایجاد کرده است. “اکنون تعداد زیادی استارت آپ وجود دارند که با استانداردهای اخلاقی و قانونی موجود برای استخدام افراد با استفاده از الگوریتم ها آشنا نیستند و گاهی اوقات به دلیل ناآگاهی از رویه های ایجاد شده به مردم آسیب می زنند. ما این چارچوب را برای کمک به اطلاع رسانی به آن شرکت ها و مقامات نظارتی مرتبط ایجاد کردیم. “
محققان استانداردهایی را که توسعه دادهاند توصیه میکنند که هم توسط حسابرسان داخلی در طول توسعه فناوریهای هوش مصنوعی پیشبینیکننده با ریسک بالا و هم پس از آن توسط حسابرسان خارجی مستقل رعایت شود. هر سیستمی که ادعا میکند توصیههای معناداری درباره نحوه رفتار با افراد ارائه میکند، باید در این چارچوب ارزیابی شود.
بهرند گفت: «روانشناسان صنعتی در ارزیابی ارزیابی های پرمخاطب تخصص منحصر به فردی دارند. “هدف ما آموزش توسعه دهندگان و کاربران ارزیابی های مبتنی بر هوش مصنوعی در مورد الزامات موجود برای عدالت و اثربخشی و هدایت توسعه سیاست های آینده بود که از کارگران و متقاضیان محافظت می کند.”
مدلهای هوش مصنوعی به سرعت در حال توسعه هستند، به طوری که میتوان با مناسبترین روش برای ممیزی نوع خاصی از سیستم هوش مصنوعی همراهی کرد. محققان امیدوارند استانداردهای دقیق تری را برای موارد استفاده خاص ایجاد کنند، با سایر سازمان هایی که در سطح جهانی علاقه مند به ایجاد حسابرسی به عنوان یک رویکرد پیش فرض در این موقعیت ها هستند، شریک شوند و در جهت آینده ای بهتر با هوش مصنوعی به طور گسترده تر تلاش کنند.