نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

2 آذر 1403 5:37 ق.ظ

راههای جلوگیری از تعمیق نابرابری اجتماعی در اثر کاربرد هوش مصنوعی

توسط Tiberio Caetano و Bill Simpson-Young ، 13 ژانویه 2021

از جستجوی گوگل و سایت های همسریابی گرفته تا کشف تقلب در کارت های اعتباری ، هوش مصنوعی (AI) مرتباً راه های جدیدی برای ورود به زندگی ما پیدا می کند. اما آیا می توانیم به الگوریتم های محرک آن اعتماد کنیم؟

 به عنوان انسان ، ما اشتباه می کنیم. ما می توانیم دچار حواس پرتی شویم و اطلاعات را اشتباه تفسیر کنیم. با این حال وقتی دوباره ارزیابی می کنیم ، می توانیم خطاهای خود را مرور کرده و آنها را اصلاح کنیم.

اما هنگامی که یک سیستم هوش مصنوعی خطایی می کند ، مهم نیست که چند بار در همان شرایط با همان داده ها کار می کند.

سیستم های هوش مصنوعی با استفاده از داده هایی که به طور حتم گذشته را منعکس می کنند ، آموزش می بینند. اگر یک مجموعه داده آموزش شامل تعصبات ذاتی تصمیمات گذشته انسان باشد ، این تعصبات توسط سیستم کدگذاری و تقویت می شوند.یا اگر حاوی اطلاعات کمتری در مورد یک گروه اقلیت خاص باشد ، پیش بینی ها برای آن گروه بدتر خواهد بود. این امر “بایاس الگوریتمی” نامیده می شود.

موسسه Gradient مقاله ای را تالیف کرده است که نشان می دهد چگونه مشاغل می توانند تعصب الگوریتمی را در سیستم های هوش مصنوعی شناسایی کنند و چگونه می توانند آن را کاهش دهند.

این اثر با همکاری کمیسیون حقوق بشر استرالیا ، مرکز تحقیقات سیاست مصرف کننده ، Data61 CSIRO و گروه حمایت از CHOICE تولید شده است.

تعصب الگوریتمی چگونه بوجود می آید؟

تعصب الگوریتمی ممکن است به دلیل کمبود داده های آموزشی مناسب یا در نتیجه طراحی یا پیکربندی نامناسب سیستم بوجود آید.به عنوان مثال ، سیستمی که به بانک کمک می کند تصمیم بگیرد که آیا وام نمی دهد یا خیر ، معمولاً با استفاده از مجموعه داده های گسترده تصمیمات قبلی بانک (و سایر داده های مربوطه که بانک به آنها دسترسی دارد) آموزش می یابد.

این سیستم می تواند سابقه مالی ، سابقه اشتغال و اطلاعات دموگرافیک متقاضی وام جدید را با اطلاعات مربوط به متقاضیان قبلی مقایسه کند. از این طریق ، سعی می شود پیش بینی کند که آیا متقاضی جدید قادر به بازپرداخت وام است. اما این رویکرد می تواند مشکل ساز باشد. راهی که می تواند در این شرایط تعصب الگوریتمی در آن بوجود آید .

جوانان ، افراد رنگین پوست ، زنان مجرد ، افراد دارای معلولیت و کارگران یقه آبی تنها نمونه هایی از گروه هایی هستند که ممکن است در معرض آسیب قرار گیرند.

تعصب هم به افراد و هم به شرکتها آسیب می رساند.

سیستم AI که در بالا توضیح داده شد ، دو خطر اساسی برای بانک به همراه دارد.

اولاً ، این بانک می تواند با جذب قربانیان تعصب از سوی رقبای خود ، مشتریان بالقوه خود را از دست بدهد. همچنین می تواند تحت قوانین ضد تبعیض مسئول شناخته شود.

اگر یک سیستم هوش مصنوعی به طور مستمر تعصب ذاتی را در تصمیم گیری های خود اعمال کند ، شناسایی این الگوی سیستماتیک برای دولت یا گروه های مصرف کننده آسان تر می شود. این می تواند منجر به جریمه های سنگین و مجازات شود.

کاهش تعصب الگوریتمی

مقاله ما چندین روش را برای بوجود آمدن تعصب الگوریتمی بررسی می کند.همچنین راهنمایی فنی در مورد چگونگی حذف این سوگیری فراهم می کند ، بنابراین سیستم های هوش مصنوعی نتایج اخلاقی را تولید می کنند که بر اساس ویژگی هایی مانند نژاد ، سن ، جنس یا از کار افتادگی قائل نمی شوند.

برای مقاله ما ، ما شبیه سازی یک خرده فروش برق فرضی را با استفاده از ابزاری مجهز به هوش مصنوعی برای تصمیم گیری در مورد نحوه ارائه محصولات به مشتریان انجام دادیم. این شبیه سازی بر روی داده های تاریخی خیالی ساخته شده از افراد خیالی  ،آموزش دیده است.

بر اساس نتایج ما ، ما پنج روش برای اصلاح سوگیری الگوریتمی را شناسایی می کنیم. این جعبه ابزار را می توان برای مشاغل مختلف در طیف وسیعی از بخشها به کار برد تا از انصاف و دقیق بودن سیستم های هوش مصنوعی اطمینان حاصل شود.

1. داده های بهتری دریافت کنید

با بدست آوردن داده های اضافی یا انواع جدیدی از اطلاعات در مورد افراد ، خطر سوگیری الگوریتمی کاهش می یابد.

2. داده ها را پیش پردازش کنید

این مورد شامل ویرایش یک مجموعه داده برای پوشاندن یا حذف اطلاعات مربوط به ویژگی های مرتبط با حمایت تحت قانون ضد تبعیض ، مانند نژاد یا جنسیت است.

3. افزایش پیچیدگی مدل

آزمایش ، نظارت و بازبینی مدل AI ساده تر می تواند آسان تر باشد. اما همچنین می تواند از دقت کمتری برخوردار باشد و منجر به تصمیماتی شود که اکثریت را نسبت به اقلیت ها ترجیح می دهند.

4. سیستم را اصلاح کنید

منطق و پارامترهای یک سیستم هوش مصنوعی را می توان به طور پیشگیرانه تنظیم کرد تا مستقیماً تعصب الگوریتمی را خنثی کند. به عنوان مثال ، این کار را می توان با تعیین آستانه تصمیم متفاوت برای یک گروه محروم انجام داد.

5- هدف پیش بینی را تغییر دهید

معيار خاصي كه براي هدايت يك سيستم هوش مصنوعي انتخاب شده است مستقيماً بر چگونگي تصميم گيري در گروه هاي مختلف تاثير مي گذارد. یافتن اندازه گیری عادلانه تر برای استفاده به عنوان هدف پیش بینی به کاهش سوگیری الگوریتمی کمک می کند.

https://techxplore.com

آیا این نوشته برایتان مفید بود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *