نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

4 آذر 1403 3:48 ق.ظ

وقتی هوش مصنوعی اشتباه کند، آیا پاسخگو خواهد بود؟

وقتی هوش مصنوعی اشتباه کند، آیا پاسخگو خواهد بود؟

9 مه 2024-تصاویر فناوری داده به شکل مقیاس های عدالت، تصاویر پاشا ایگناتوف و Just_Super/Getty Images

الینا تریگر این خبر را با احساس ناراحتی فزاینده دنبال کرد. به نظر می رسید هر روز نمونه های جدیدی از هوش مصنوعی که تصمیمات مهمی در زندگی افراد می گیرد به ارمغان می آورد. او با تعجب پرسید که چه اتفاقی می‌افتد، وقتی برای کسی هزینه ایجاد شود، یا یک فرد بی گناه را به عنوان یک کلاهبردار معرفی کند؟

تریگر یک دانشمند ارشد علوم سیاسی در RAND است، اما او همچنین یک وکیل است. و چیزی که او واقعاً می خواست بداند این بود که آیا مردم از یک الگوریتم شکایت خواهند کرد؟ آیا هیئت منصفه چیزی را بدون هیچ انگیزه ای مقصر می دانند؟

او و تیم کوچکی از محققان در RAND تصمیم گرفتند این موضوع را پیدا کنند. آنها یک نظرسنجی را طراحی کردند تا بررسی کنند که آیا افراد کمتر احتمال دارد تصمیماتی را که با اطمینان از یک هوش مصنوعی ارائه می شود به چالش بکشند یا خیر. نتایج بر نقش مهمی که سیستم حقوقی آمریکا می‌تواند در محافظت از مردم در برابر آسیب‌های الگوریتمی ایفا کند، تأکید می‌کند. افراد شرکت کننده در این نظرسنجی کاملا مایل بودند که کامپیوترها را به دادگاه بکشانند.

تریگر گفت: “سیستم حقوقی رفتار خوب را تشویق می کند و نتایج بد را از طریق پاسخگویی قانونی آشکار می کند.” این نگرانی وجود دارد که اگر تصمیم الگوریتمی بدی را دریافت کنید، حتی ممکن است ندانید از چه کسی می توانید شکایت کنید. اما، همانطور که معلوم شد، حداقل در آزمایش ما، این مانع از مردم نشد.»

پیدا کردن نمونه هایی از تصمیمات الگوریتمی بد کار سختی نیست. چند سال پیش، یک سیستم خودکار به اشتباه هزاران نفر از ساکنان میشیگان را برای کلاهبرداری بیکاری به دادگاه ها فرستاد. سیستم‌های هوش مصنوعی که بر اساس داده‌های سوگیری تاریخی آموزش دیده‌اند، زمان زندان نامتناسبی را برای متهمان سیاه‌پوست توصیه می‌کنند. سیستمی که بر روی داده های شغلی مردانه آموزش دیده بود، یاد گرفت که رزومه های زنان را مردود کند.

اما وقتی خطرات آنقدر بالاست – وقتی آزادی یا رفاه مالی یک نفر در خطر است – وقتی هوش مصنوعی اشتباه می‌کند، مردم واقعاً چه راهکاری دارند؟

اتحادیه اروپا اخیراً به مردم این حق قانونی داده است که در مورد تصمیمات هوش مصنوعی که خلاف آنهاست توضیحی دریافت کنند و آن تصمیمات را در دادگاه به چالش بکشند. هیچ چیز واضحی در ایالات متحده وجود ندارد. سیاست‌گذاران در اینجا بیشتر بر تنظیم سیستم‌های هوش مصنوعی تمرکز کرده‌اند تا مطمئن شوند که قبل از آنلاین شدن نمی‌توانند آسیب فاجعه‌باری ایجاد کنند. پرداختن به نتایج بد پس از آن، تا حدی به افرادی بستگی دارد که مایلند از شانس خود در دادگاه استفاده کنند.

تریگر اولین محقق حقوقی نیست که نگران این موضوع بوده است. برای یک چیز، اصلاً مشخص نیست که طرف مسئول چه کسی خواهد بود. توسعه دهندگانی که کد را نوشتند؟ شرکتی که از آن استفاده کرده است؟ همچنین اغلب دشوار است که بدانید چرا یک هوش مصنوعی تصمیم خاصی گرفته است، که اثبات اشتباه بودن آن را دشوار می کند. همانطور که یک مقاله در سال 2021 در Columbia Law Review بیان می کند، تصمیمات ماشینی اغلب “از نظر فنی غیرقابل درک و بنابراین دشوار است.”

تریگر و تیمش نظرسنجی خود را انجام دادند تا اولین نگاه ملی را در مورد آنچه که مردم در مواجهه با یک نتیجه ناعادلانه هوش مصنوعی انجام خواهند داد، ارائه دهند. آنها از 5000 پاسخ دهنده خواستند تا دو سناریو را در نظر بگیرند.

در مرحله اول، یک نامزد بسیار واجد شرایط برای یک شغل درخواست می دهد، از طریق مصاحبه ها آن را انجام می دهد – اما بعد استخدام نمی شود. سناریوی دوم خطرات را افزایش می‌دهد: یک کارگر بیکار برای دریافت مزایا درخواست می‌کند، رد می‌شود و سپس به دلیل تقلب احتمالی متهم می‌شود. برای هر دو سناریو، برخی از پاسخ‌دهندگان یک انسان تصمیم‌گیری می‌کردند و برخی یک کامپیوتر داشتند.

کسانی که کامپیوتر را دریافت کردند، احتمال بیشتری داشت که بگویند این فرآیند ناعادلانه بوده و در هر دو سناریو نتایج نادرست ایجاد کرده است. آنها همچنین تقریباً 10 درصد بیشتر احتمال داشت که بگویند به اندازه کافی شفاف نیست. نتایج به آنچه محققان به عنوان “جریمه الگوریتمی” توصیف کردند اشاره می کند. به نظر می رسد که مردم مایلند به تصمیم گیرندگان انسانی کمی آزادی عمل بدهند، حتی زمانی که آنها با تصمیمات خود مخالف هستند – اما نه رایانه ها.

سپس محققان از پاسخ دهندگان پرسیدند که اگر آنها در این دو سناریو بودند چه کار می کردند.

حتی در سناریوی بیکاری، که در آن نتیجه نه تنها اشتباه، بلکه مضر بود، یک سوم از کسانی که تصمیم گیرنده انسانی داشتند، گفتند که هیچ کاری انجام نخواهند داد. کمتر از یک چهارم از کسانی که کامپیوتری در ترکیب داشتند، خیلی مایل بودند که اجازه دهند آن جا بیفتد. آنها به احتمال زیاد می گویند که تجدید نظر خواهند کرد، و اندکی بیشتر احتمال داشت که بگویند شکایت خواهند کرد. پاسخ دهندگان در هر دو سناریو همچنین احتمال بیشتری داشت که بگویند زمانی که تصمیمات توسط رایانه گرفته می شد به یک دعوی حقوقی دسته جمعی می پیوندند.

تریگر گفت: «این دلگرم کننده است. این بدان معناست که آنها الگوریتم‌ها را از قضاوت‌های اخلاقی عمومی ما مستثنی نمی‌کنند. آنها مایل به اقدام قانونی برای جبران آسیب های الگوریتمی هستند. این می تواند مکانیزم واقعی برای پاسخگویی باشد.»

پاسخ دهندگان سفیدپوست نسبت به پاسخ دهندگان غیرسفیدپوست تمایل داشتند هوش مصنوعی را در بیشتر معیارها به شدت جریمه کنند. یک استثناء تعصب بود، اما تفاوت‌ها کم بود. ممکن است تعجب آور به نظر برسد. مطالعات به طور مداوم نشان می دهد که سیستم های هوش مصنوعی آموزش دیده بر روی داده های تاریخی یاد می گیرند که تعصبات تاریخی را تکرار کنند، به ویژه علیه اقلیت های نژادی و قومی.

اما زمانی که محققان به بررسی داده‌های نظرسنجی پرداختند، دریافتند که پاسخ‌دهندگان غیرسفیدپوست لزوماً در مورد سوالات سوگیری بیشتر به هوش مصنوعی اعتماد ندارند. آنها کمتر به تصمیم گیرندگان انسانی اعتماد داشتند. آنها هوش مصنوعی را به شدت مجازات نکردند زیرا فکر نمی کردند که انسان ها نیز تصمیمات بی طرفانه بگیرند.

نتایج نظرسنجی حاکی از آن است که مردم برای دفاع از حقوق خود حتی در عصر هوش مصنوعی همچنان به دادگاه مراجعه خواهند کرد. محققان نوشتند که تصمیم گیرندگان الگوریتمی ممکن است نیت یا وضعیت ذهنی انسان ها را نداشته باشند – اما این مانع از اقدام قانونی در زمانی که آسیب ناخواسته ایجاد می کند، نمی شود.

سیاست‌گذارانی که برای تنظیم هوش مصنوعی کار می‌کنند باید نه تنها مشکلات سوگیری، بلکه در مورد دقت و شفافیت را نیز در نظر بگیرند. و آنها باید در نظر داشته باشند که حق قانونی خاصی را برای مردم برای اعتراض در تصمیمات هوش مصنوعی، درست مانند اتحادیه اروپا، در نظر بگیرند.

تریگر گفت: «در برخی تنظیمات، شما فقط فرض می‌کنید که استانداردهای موجود آن را پوشش می‌دهند. ما قوانین ضد تبعیض زیادی داریم، و به نظر می رسد که این قوانین به همان اندازه در زمینه الگوریتمی قابل اجرا هستند. اما همیشه آنقدر واضح نیست. و بنابراین یکی از پیامدهای مطالعه ما این است که بله، ما باید این حقوق را به وضوح در قانون تثبیت کنیم.»

میشیگان به تازگی یک درس سخت در مورد اینکه مردم چقدر مایل به رفتن به دادگاه هستند، زمانی که یک الگوریتم زندگی آنها را خراب می کند، گرفت. هزاران نفر از ساکنان زمانی که سیستم خودکار بیکاری ایالتی به اشتباه آنها را به کلاهبرداری متهم کرد، یک شکایت دسته جمعی تنظیم کردند. در اوایل سال جاری، ایالت 20 میلیون دلار را برای حل و فصل این پرونده نهایی کرد.

https://www.rand.org

آیا این نوشته برایتان مفید بود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *