نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

19 اردیبهشت 1403 3:45 ب.ظ

هوش مصنوعی امروزه فراگیر شده است و خطرات آن اغلب پنهان هستند

هوش مصنوعی امروزه فراگیر شده است و خطرات آن اغلب پنهان هستند

22 نوامبر 2023 – توسط آنجانا سوسارلا، گفتگو-اعتبار: CC0 دامنه عمومی

آشفتگی در OpenAI سازنده ChatGPT که توسط هیئت مدیره اخراج سم آلتمن مدیر عامل در 17 نوامبر 2023 خبر ساز شد، ایمنی هوش مصنوعی و نگرانی ها در مورد توسعه سریع هوش عمومی مصنوعی یا AGI را مورد توجه قرار داده است. AGI به طور ساده به عنوان هوش در سطح انسان در طیف وسیعی از وظایف تعریف می شود.

هیئت مدیره OpenAI اعلام کرده که خاتمه کار آلتمن به دلیل عدم صراحت بوده است، اما گمانه زنی ها بر روی شکاف بین آلتمن و اعضای هیئت مدیره به دلیل نگرانی از رشد چشمگیر OpenAI متمرکز شده است – محصولاتی مانند ChatGPT و Dall-E صدها میلیون کاربر را در سراسر جهان جذب کرده است. – توانایی شرکت برای تمرکز بر خطرات فاجعه بار ناشی از AGI را مختل کرده است.

هدف OpenAI از توسعه AGI با ایده دستیابی هوش مصنوعی به قابلیت‌های فوق‌هوشمند و نیاز به محافظت در برابر استفاده نادرست یا فریب‌کاری فناوری در هم تنیده شده است. اما در حال حاضر، AGI و ریسک های همراه آن حدس و گمان هستند. در همین حال، اشکال خاص هوش مصنوعی بسیار واقعی هستند، گسترده شده اند و اغلب تحت نظارت هستند.من به عنوان یک محقق سیستم های اطلاعاتی و هوش مصنوعی مسئول، نحوه عملکرد این الگوریتم های روزمره و اینکه چگونه می توانند به مردم آسیب برسانند را مطالعه می کنم.

هوش مصنوعی فراگیر است

هوش مصنوعی نقش قابل توجهی در زندگی روزمره بسیاری از افراد ایفا می کند، از تشخیص چهره باز کردن قفل گوشی تا تشخیص گفتار که به دستیار دیجیتالی شما کمک می کند. همچنین نقش‌هایی را ایفا می‌کند که ممکن است به‌طور مبهم از آن‌ها آگاه باشید – به عنوان مثال، شکل‌دهی به جلسات خرید آنلاین و رسانه‌های اجتماعی شما، راهنمایی انتخاب‌های تماشای ویدیوی شما و تطبیق شما با راننده در یک سرویس اشتراک‌گذاری سواری.

هوش مصنوعی در فرآیند استخدام تقریباً در همه جا حاضر شده است.

هوش مصنوعی همچنین زندگی شما را به گونه‌ای تحت تأثیر قرار می‌دهد که ممکن است کاملاً از توجه شما دور بماند. اگر برای شغلی درخواست می دهید، بسیاری از کارفرمایان از هوش مصنوعی در فرآیند استخدام استفاده می کنند. روسای شما ممکن است از آن برای شناسایی کارمندانی که احتمالاً ترک می کنند استفاده کنند. اگر برای وام درخواست می‌کنید، احتمال دارد بانک شما از هوش مصنوعی برای اعطای آن استفاده کند. اگر برای یک وضعیت پزشکی تحت درمان هستید، ارائه دهندگان مراقبت های بهداشتی شما ممکن است از آن برای ارزیابی تصاویر پزشکی شما استفاده کنند. و اگر کسی را می شناسید که در سیستم عدالت کیفری گرفتار شده است، هوش مصنوعی می تواند نقش مهمی در تعیین مسیر زندگی او داشته باشد.

آسیب های الگوریتمی

بسیاری از سیستم‌های هوش مصنوعی دارای سوگیری‌هایی هستند که می‌توانند باعث آسیب شوند. برای مثال، روش‌های یادگیری ماشین از منطق استقرایی استفاده می‌کنند که با مجموعه‌ای از مقدمات برای تعمیم الگوهای داده‌های آموزشی شروع می‌شود. مشخص شد که ابزار غربالگری رزومه مبتنی بر یادگیری ماشینی علیه زنان تعصب دارد، زیرا داده‌های آموزشی منعکس‌کننده شیوه‌های گذشته بود، زمانی که بیشتر رزومه‌ها توسط مردان ارسال می‌شد.

استفاده از روش‌های پیش‌بینی در حوزه‌های مختلف از مراقبت‌های بهداشتی تا رفاه کودکان می‌تواند سوگیری‌هایی مانند سوگیری گروهی را نشان دهد که منجر به ارزیابی نابرابر خطر در بین گروه‌های مختلف جامعه می‌شود. حتی زمانی که رویه‌های قانونی تبعیض را بر اساس ویژگی‌هایی مانند نژاد و جنسیت منع می‌کنند – به عنوان مثال، در وام‌دهی مصرف‌کننده – تبعیض نیابتی همچنان ممکن است رخ دهد. این زمانی اتفاق می‌افتد که مدل‌های تصمیم‌گیری الگوریتمی از ویژگی‌هایی استفاده نمی‌کنند که از نظر قانونی محافظت می‌شوند، مانند نژاد، و در عوض از ویژگی‌هایی استفاده می‌کنند که بسیار همبستگی یا مرتبط با ویژگی محافظت شده قانونی هستند، مانند همسایگی. مطالعات نشان داده‌اند که وام‌گیرندگان سیاه‌پوست و لاتین تبار معادل ریسک، نرخ‌های بهره قابل‌توجهی برای وام‌های شرکت‌های تحت حمایت دولت و بیمه‌شده توسط سازمان مسکن فدرال نسبت به وام‌گیرندگان سفیدپوست پرداخت می‌کنند.

شکل دیگری از سوگیری زمانی رخ می دهد که تصمیم گیرندگان از الگوریتمی متفاوت از آنچه طراحان الگوریتم در نظر داشتند استفاده می کنند. در یک مثال معروف، یک شبکه عصبی یاد گرفت که آسم را با خطر کمتر مرگ ناشی از ذات الریه مرتبط کند. این به این دلیل بود که بیماران آسمی مبتلا به ذات الریه به طور سنتی درمان تهاجمی تری دارند که خطر مرگ و میر آنها را در مقایسه با کل جمعیت کاهش می دهد. با این حال، اگر پیامد چنین شبکه عصبی در تخصیص تخت بیمارستان استفاده شود، آن‌هایی که آسم دارند و بستری شده‌اند با ذات‌الریه به طور خطرناکی از اولویت برخوردار خواهند بود.

سوگیری از الگوریتم ها همچنین می تواند از حلقه های بازخورد پیچیده اجتماعی ناشی شود. به عنوان مثال، هنگام پیش‌بینی تکرار جرم، مقامات تلاش می‌کنند پیش‌بینی کنند که کدام یک از افراد محکوم به جرم احتمالاً دوباره مرتکب جرم می‌شوند. اما داده‌هایی که برای آموزش الگوریتم‌های پیش‌بینی استفاده می‌شوند در واقع درباره افرادی است که احتمال دارد دوباره دستگیر شوند.تعصب نژادی در الگوریتم ها یک مشکل مداوم است.

ایمنی هوش مصنوعی در اینجا و اکنون

دستور اجرایی اخیر دولت بایدن و تلاش‌های اجرایی توسط آژانس‌های فدرال مانند کمیسیون تجارت فدرال اولین گام برای شناسایی و محافظت در برابر آسیب‌های الگوریتمی است.و اگرچه مدل‌های زبان بزرگ، مانند GPT-3 که ChatGPT را تقویت می‌کند، و مدل‌های زبان بزرگ چندوجهی، مانند GPT-4، گام‌هایی در مسیر به سمت هوش مصنوعی عمومی هستند.

آنها همچنین الگوریتم هایی هستند که مردم به طور فزاینده ای در مدرسه، کار و زندگی روزمره از آنها استفاده می کنند. مهم است که تعصبات ناشی از استفاده گسترده از مدل های زبانی بزرگ را در نظر بگیرید.

برای مثال، این مدل‌ها می‌توانند سوگیری‌های ناشی از کلیشه‌های منفی مربوط به جنسیت، نژاد یا مذهب، و همچنین سوگیری‌هایی را در نمایندگی اقلیت‌ها و افراد ناتوان نشان دهند. از آنجایی که این مدل‌ها توانایی پیشی گرفتن از انسان‌ها را در آزمون‌هایی مانند آزمون وکالت نشان می‌دهند، من معتقدم که برای اطمینان از اینکه کارهای تقویت‌شده با هوش مصنوعی مطابق با استانداردهای شفافیت، دقت و اعتبار منبع است و اینکه ذینفعان صلاحیت اجرای آن را دارند، به بررسی دقیق‌تری نیاز دارند. چنین استانداردهایی

در نهایت، اینکه چه کسی از استقرار در مقیاس بزرگ هوش مصنوعی برنده می‌شود و می‌بازد، ممکن است مربوط به ابراطلاعات سرکش نباشد، بلکه به درک اینکه چه کسی در زمان فراگیر شدن تصمیم‌گیری الگوریتمی آسیب‌پذیر است.

https://techxplore.com

آیا این نوشته برایتان مفید بود؟

مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *