22 نوامبر 2023 – توسط آنجانا سوسارلا، گفتگو-اعتبار: CC0 دامنه عمومی
آشفتگی در OpenAI سازنده ChatGPT که توسط هیئت مدیره اخراج سم آلتمن مدیر عامل در 17 نوامبر 2023 خبر ساز شد، ایمنی هوش مصنوعی و نگرانی ها در مورد توسعه سریع هوش عمومی مصنوعی یا AGI را مورد توجه قرار داده است. AGI به طور ساده به عنوان هوش در سطح انسان در طیف وسیعی از وظایف تعریف می شود.
هیئت مدیره OpenAI اعلام کرده که خاتمه کار آلتمن به دلیل عدم صراحت بوده است، اما گمانه زنی ها بر روی شکاف بین آلتمن و اعضای هیئت مدیره به دلیل نگرانی از رشد چشمگیر OpenAI متمرکز شده است – محصولاتی مانند ChatGPT و Dall-E صدها میلیون کاربر را در سراسر جهان جذب کرده است. – توانایی شرکت برای تمرکز بر خطرات فاجعه بار ناشی از AGI را مختل کرده است.
هدف OpenAI از توسعه AGI با ایده دستیابی هوش مصنوعی به قابلیتهای فوقهوشمند و نیاز به محافظت در برابر استفاده نادرست یا فریبکاری فناوری در هم تنیده شده است. اما در حال حاضر، AGI و ریسک های همراه آن حدس و گمان هستند. در همین حال، اشکال خاص هوش مصنوعی بسیار واقعی هستند، گسترده شده اند و اغلب تحت نظارت هستند.من به عنوان یک محقق سیستم های اطلاعاتی و هوش مصنوعی مسئول، نحوه عملکرد این الگوریتم های روزمره و اینکه چگونه می توانند به مردم آسیب برسانند را مطالعه می کنم.
هوش مصنوعی فراگیر است
هوش مصنوعی نقش قابل توجهی در زندگی روزمره بسیاری از افراد ایفا می کند، از تشخیص چهره باز کردن قفل گوشی تا تشخیص گفتار که به دستیار دیجیتالی شما کمک می کند. همچنین نقشهایی را ایفا میکند که ممکن است بهطور مبهم از آنها آگاه باشید – به عنوان مثال، شکلدهی به جلسات خرید آنلاین و رسانههای اجتماعی شما، راهنمایی انتخابهای تماشای ویدیوی شما و تطبیق شما با راننده در یک سرویس اشتراکگذاری سواری.
هوش مصنوعی در فرآیند استخدام تقریباً در همه جا حاضر شده است.
هوش مصنوعی همچنین زندگی شما را به گونهای تحت تأثیر قرار میدهد که ممکن است کاملاً از توجه شما دور بماند. اگر برای شغلی درخواست می دهید، بسیاری از کارفرمایان از هوش مصنوعی در فرآیند استخدام استفاده می کنند. روسای شما ممکن است از آن برای شناسایی کارمندانی که احتمالاً ترک می کنند استفاده کنند. اگر برای وام درخواست میکنید، احتمال دارد بانک شما از هوش مصنوعی برای اعطای آن استفاده کند. اگر برای یک وضعیت پزشکی تحت درمان هستید، ارائه دهندگان مراقبت های بهداشتی شما ممکن است از آن برای ارزیابی تصاویر پزشکی شما استفاده کنند. و اگر کسی را می شناسید که در سیستم عدالت کیفری گرفتار شده است، هوش مصنوعی می تواند نقش مهمی در تعیین مسیر زندگی او داشته باشد.
آسیب های الگوریتمی
بسیاری از سیستمهای هوش مصنوعی دارای سوگیریهایی هستند که میتوانند باعث آسیب شوند. برای مثال، روشهای یادگیری ماشین از منطق استقرایی استفاده میکنند که با مجموعهای از مقدمات برای تعمیم الگوهای دادههای آموزشی شروع میشود. مشخص شد که ابزار غربالگری رزومه مبتنی بر یادگیری ماشینی علیه زنان تعصب دارد، زیرا دادههای آموزشی منعکسکننده شیوههای گذشته بود، زمانی که بیشتر رزومهها توسط مردان ارسال میشد.
استفاده از روشهای پیشبینی در حوزههای مختلف از مراقبتهای بهداشتی تا رفاه کودکان میتواند سوگیریهایی مانند سوگیری گروهی را نشان دهد که منجر به ارزیابی نابرابر خطر در بین گروههای مختلف جامعه میشود. حتی زمانی که رویههای قانونی تبعیض را بر اساس ویژگیهایی مانند نژاد و جنسیت منع میکنند – به عنوان مثال، در وامدهی مصرفکننده – تبعیض نیابتی همچنان ممکن است رخ دهد. این زمانی اتفاق میافتد که مدلهای تصمیمگیری الگوریتمی از ویژگیهایی استفاده نمیکنند که از نظر قانونی محافظت میشوند، مانند نژاد، و در عوض از ویژگیهایی استفاده میکنند که بسیار همبستگی یا مرتبط با ویژگی محافظت شده قانونی هستند، مانند همسایگی. مطالعات نشان دادهاند که وامگیرندگان سیاهپوست و لاتین تبار معادل ریسک، نرخهای بهره قابلتوجهی برای وامهای شرکتهای تحت حمایت دولت و بیمهشده توسط سازمان مسکن فدرال نسبت به وامگیرندگان سفیدپوست پرداخت میکنند.
شکل دیگری از سوگیری زمانی رخ می دهد که تصمیم گیرندگان از الگوریتمی متفاوت از آنچه طراحان الگوریتم در نظر داشتند استفاده می کنند. در یک مثال معروف، یک شبکه عصبی یاد گرفت که آسم را با خطر کمتر مرگ ناشی از ذات الریه مرتبط کند. این به این دلیل بود که بیماران آسمی مبتلا به ذات الریه به طور سنتی درمان تهاجمی تری دارند که خطر مرگ و میر آنها را در مقایسه با کل جمعیت کاهش می دهد. با این حال، اگر پیامد چنین شبکه عصبی در تخصیص تخت بیمارستان استفاده شود، آنهایی که آسم دارند و بستری شدهاند با ذاتالریه به طور خطرناکی از اولویت برخوردار خواهند بود.
سوگیری از الگوریتم ها همچنین می تواند از حلقه های بازخورد پیچیده اجتماعی ناشی شود. به عنوان مثال، هنگام پیشبینی تکرار جرم، مقامات تلاش میکنند پیشبینی کنند که کدام یک از افراد محکوم به جرم احتمالاً دوباره مرتکب جرم میشوند. اما دادههایی که برای آموزش الگوریتمهای پیشبینی استفاده میشوند در واقع درباره افرادی است که احتمال دارد دوباره دستگیر شوند.تعصب نژادی در الگوریتم ها یک مشکل مداوم است.
ایمنی هوش مصنوعی در اینجا و اکنون
دستور اجرایی اخیر دولت بایدن و تلاشهای اجرایی توسط آژانسهای فدرال مانند کمیسیون تجارت فدرال اولین گام برای شناسایی و محافظت در برابر آسیبهای الگوریتمی است.و اگرچه مدلهای زبان بزرگ، مانند GPT-3 که ChatGPT را تقویت میکند، و مدلهای زبان بزرگ چندوجهی، مانند GPT-4، گامهایی در مسیر به سمت هوش مصنوعی عمومی هستند.
آنها همچنین الگوریتم هایی هستند که مردم به طور فزاینده ای در مدرسه، کار و زندگی روزمره از آنها استفاده می کنند. مهم است که تعصبات ناشی از استفاده گسترده از مدل های زبانی بزرگ را در نظر بگیرید.
برای مثال، این مدلها میتوانند سوگیریهای ناشی از کلیشههای منفی مربوط به جنسیت، نژاد یا مذهب، و همچنین سوگیریهایی را در نمایندگی اقلیتها و افراد ناتوان نشان دهند. از آنجایی که این مدلها توانایی پیشی گرفتن از انسانها را در آزمونهایی مانند آزمون وکالت نشان میدهند، من معتقدم که برای اطمینان از اینکه کارهای تقویتشده با هوش مصنوعی مطابق با استانداردهای شفافیت، دقت و اعتبار منبع است و اینکه ذینفعان صلاحیت اجرای آن را دارند، به بررسی دقیقتری نیاز دارند. چنین استانداردهایی
در نهایت، اینکه چه کسی از استقرار در مقیاس بزرگ هوش مصنوعی برنده میشود و میبازد، ممکن است مربوط به ابراطلاعات سرکش نباشد، بلکه به درک اینکه چه کسی در زمان فراگیر شدن تصمیمگیری الگوریتمی آسیبپذیر است.