9 مه 2024-تصاویر فناوری داده به شکل مقیاس های عدالت، تصاویر پاشا ایگناتوف و Just_Super/Getty Images
الینا تریگر این خبر را با احساس ناراحتی فزاینده دنبال کرد. به نظر می رسید هر روز نمونه های جدیدی از هوش مصنوعی که تصمیمات مهمی در زندگی افراد می گیرد به ارمغان می آورد. او با تعجب پرسید که چه اتفاقی میافتد، وقتی برای کسی هزینه ایجاد شود، یا یک فرد بی گناه را به عنوان یک کلاهبردار معرفی کند؟
تریگر یک دانشمند ارشد علوم سیاسی در RAND است، اما او همچنین یک وکیل است. و چیزی که او واقعاً می خواست بداند این بود که آیا مردم از یک الگوریتم شکایت خواهند کرد؟ آیا هیئت منصفه چیزی را بدون هیچ انگیزه ای مقصر می دانند؟
او و تیم کوچکی از محققان در RAND تصمیم گرفتند این موضوع را پیدا کنند. آنها یک نظرسنجی را طراحی کردند تا بررسی کنند که آیا افراد کمتر احتمال دارد تصمیماتی را که با اطمینان از یک هوش مصنوعی ارائه می شود به چالش بکشند یا خیر. نتایج بر نقش مهمی که سیستم حقوقی آمریکا میتواند در محافظت از مردم در برابر آسیبهای الگوریتمی ایفا کند، تأکید میکند. افراد شرکت کننده در این نظرسنجی کاملا مایل بودند که کامپیوترها را به دادگاه بکشانند.
تریگر گفت: “سیستم حقوقی رفتار خوب را تشویق می کند و نتایج بد را از طریق پاسخگویی قانونی آشکار می کند.” این نگرانی وجود دارد که اگر تصمیم الگوریتمی بدی را دریافت کنید، حتی ممکن است ندانید از چه کسی می توانید شکایت کنید. اما، همانطور که معلوم شد، حداقل در آزمایش ما، این مانع از مردم نشد.»
پیدا کردن نمونه هایی از تصمیمات الگوریتمی بد کار سختی نیست. چند سال پیش، یک سیستم خودکار به اشتباه هزاران نفر از ساکنان میشیگان را برای کلاهبرداری بیکاری به دادگاه ها فرستاد. سیستمهای هوش مصنوعی که بر اساس دادههای سوگیری تاریخی آموزش دیدهاند، زمان زندان نامتناسبی را برای متهمان سیاهپوست توصیه میکنند. سیستمی که بر روی داده های شغلی مردانه آموزش دیده بود، یاد گرفت که رزومه های زنان را مردود کند.
اما وقتی خطرات آنقدر بالاست – وقتی آزادی یا رفاه مالی یک نفر در خطر است – وقتی هوش مصنوعی اشتباه میکند، مردم واقعاً چه راهکاری دارند؟
اتحادیه اروپا اخیراً به مردم این حق قانونی داده است که در مورد تصمیمات هوش مصنوعی که خلاف آنهاست توضیحی دریافت کنند و آن تصمیمات را در دادگاه به چالش بکشند. هیچ چیز واضحی در ایالات متحده وجود ندارد. سیاستگذاران در اینجا بیشتر بر تنظیم سیستمهای هوش مصنوعی تمرکز کردهاند تا مطمئن شوند که قبل از آنلاین شدن نمیتوانند آسیب فاجعهباری ایجاد کنند. پرداختن به نتایج بد پس از آن، تا حدی به افرادی بستگی دارد که مایلند از شانس خود در دادگاه استفاده کنند.
تریگر اولین محقق حقوقی نیست که نگران این موضوع بوده است. برای یک چیز، اصلاً مشخص نیست که طرف مسئول چه کسی خواهد بود. توسعه دهندگانی که کد را نوشتند؟ شرکتی که از آن استفاده کرده است؟ همچنین اغلب دشوار است که بدانید چرا یک هوش مصنوعی تصمیم خاصی گرفته است، که اثبات اشتباه بودن آن را دشوار می کند. همانطور که یک مقاله در سال 2021 در Columbia Law Review بیان می کند، تصمیمات ماشینی اغلب “از نظر فنی غیرقابل درک و بنابراین دشوار است.”
تریگر و تیمش نظرسنجی خود را انجام دادند تا اولین نگاه ملی را در مورد آنچه که مردم در مواجهه با یک نتیجه ناعادلانه هوش مصنوعی انجام خواهند داد، ارائه دهند. آنها از 5000 پاسخ دهنده خواستند تا دو سناریو را در نظر بگیرند.
در مرحله اول، یک نامزد بسیار واجد شرایط برای یک شغل درخواست می دهد، از طریق مصاحبه ها آن را انجام می دهد – اما بعد استخدام نمی شود. سناریوی دوم خطرات را افزایش میدهد: یک کارگر بیکار برای دریافت مزایا درخواست میکند، رد میشود و سپس به دلیل تقلب احتمالی متهم میشود. برای هر دو سناریو، برخی از پاسخدهندگان یک انسان تصمیمگیری میکردند و برخی یک کامپیوتر داشتند.
کسانی که کامپیوتر را دریافت کردند، احتمال بیشتری داشت که بگویند این فرآیند ناعادلانه بوده و در هر دو سناریو نتایج نادرست ایجاد کرده است. آنها همچنین تقریباً 10 درصد بیشتر احتمال داشت که بگویند به اندازه کافی شفاف نیست. نتایج به آنچه محققان به عنوان “جریمه الگوریتمی” توصیف کردند اشاره می کند. به نظر می رسد که مردم مایلند به تصمیم گیرندگان انسانی کمی آزادی عمل بدهند، حتی زمانی که آنها با تصمیمات خود مخالف هستند – اما نه رایانه ها.
سپس محققان از پاسخ دهندگان پرسیدند که اگر آنها در این دو سناریو بودند چه کار می کردند.
حتی در سناریوی بیکاری، که در آن نتیجه نه تنها اشتباه، بلکه مضر بود، یک سوم از کسانی که تصمیم گیرنده انسانی داشتند، گفتند که هیچ کاری انجام نخواهند داد. کمتر از یک چهارم از کسانی که کامپیوتری در ترکیب داشتند، خیلی مایل بودند که اجازه دهند آن جا بیفتد. آنها به احتمال زیاد می گویند که تجدید نظر خواهند کرد، و اندکی بیشتر احتمال داشت که بگویند شکایت خواهند کرد. پاسخ دهندگان در هر دو سناریو همچنین احتمال بیشتری داشت که بگویند زمانی که تصمیمات توسط رایانه گرفته می شد به یک دعوی حقوقی دسته جمعی می پیوندند.
تریگر گفت: «این دلگرم کننده است. این بدان معناست که آنها الگوریتمها را از قضاوتهای اخلاقی عمومی ما مستثنی نمیکنند. آنها مایل به اقدام قانونی برای جبران آسیب های الگوریتمی هستند. این می تواند مکانیزم واقعی برای پاسخگویی باشد.»
پاسخ دهندگان سفیدپوست نسبت به پاسخ دهندگان غیرسفیدپوست تمایل داشتند هوش مصنوعی را در بیشتر معیارها به شدت جریمه کنند. یک استثناء تعصب بود، اما تفاوتها کم بود. ممکن است تعجب آور به نظر برسد. مطالعات به طور مداوم نشان می دهد که سیستم های هوش مصنوعی آموزش دیده بر روی داده های تاریخی یاد می گیرند که تعصبات تاریخی را تکرار کنند، به ویژه علیه اقلیت های نژادی و قومی.
اما زمانی که محققان به بررسی دادههای نظرسنجی پرداختند، دریافتند که پاسخدهندگان غیرسفیدپوست لزوماً در مورد سوالات سوگیری بیشتر به هوش مصنوعی اعتماد ندارند. آنها کمتر به تصمیم گیرندگان انسانی اعتماد داشتند. آنها هوش مصنوعی را به شدت مجازات نکردند زیرا فکر نمی کردند که انسان ها نیز تصمیمات بی طرفانه بگیرند.
نتایج نظرسنجی حاکی از آن است که مردم برای دفاع از حقوق خود حتی در عصر هوش مصنوعی همچنان به دادگاه مراجعه خواهند کرد. محققان نوشتند که تصمیم گیرندگان الگوریتمی ممکن است نیت یا وضعیت ذهنی انسان ها را نداشته باشند – اما این مانع از اقدام قانونی در زمانی که آسیب ناخواسته ایجاد می کند، نمی شود.
سیاستگذارانی که برای تنظیم هوش مصنوعی کار میکنند باید نه تنها مشکلات سوگیری، بلکه در مورد دقت و شفافیت را نیز در نظر بگیرند. و آنها باید در نظر داشته باشند که حق قانونی خاصی را برای مردم برای اعتراض در تصمیمات هوش مصنوعی، درست مانند اتحادیه اروپا، در نظر بگیرند.
تریگر گفت: «در برخی تنظیمات، شما فقط فرض میکنید که استانداردهای موجود آن را پوشش میدهند. ما قوانین ضد تبعیض زیادی داریم، و به نظر می رسد که این قوانین به همان اندازه در زمینه الگوریتمی قابل اجرا هستند. اما همیشه آنقدر واضح نیست. و بنابراین یکی از پیامدهای مطالعه ما این است که بله، ما باید این حقوق را به وضوح در قانون تثبیت کنیم.»
میشیگان به تازگی یک درس سخت در مورد اینکه مردم چقدر مایل به رفتن به دادگاه هستند، زمانی که یک الگوریتم زندگی آنها را خراب می کند، گرفت. هزاران نفر از ساکنان زمانی که سیستم خودکار بیکاری ایالتی به اشتباه آنها را به کلاهبرداری متهم کرد، یک شکایت دسته جمعی تنظیم کردند. در اوایل سال جاری، ایالت 20 میلیون دلار را برای حل و فصل این پرونده نهایی کرد.