نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

13 اردیبهشت 1403 7:51 ب.ظ

این کتاب هشدار می دهد که الگوریتم ها ممکن است نفرت و تبعیض ایجاد کنند

15 فوریه 2023 -توسط کوئین مری، دانشگاه لندن

اعتبار: Rowman & Littlefield

نشریه جدیدی از پروفسور یاسمین ابراهیم از دانشکده تجارت و مدیریت ملکه مری هشدار می‌دهد که در دنیای دیجیتالی با رشد فزاینده، فناوری نابرابری‌های اجتماعی تاریخی را ترویج می‌کند مگر اینکه سیستم به چالش کشیده شود و تغییر کند.

آخرین کتاب پروفسور ابراهیم از تحقیقات از علوم کامپیوتر گرفته تا جامعه‌شناسی و مطالعات نژادی انتقادی استفاده می‌کند و نشان می‌دهد که چگونه پلت‌فرم‌ها و الگوریتم‌های دیجیتال می‌توانند نگرش‌ها و رفتارهای اجتماعی را شکل دهند.

«نژاد دیجیتال: خشونت الگوریتمی و پلتفرم‌های دیجیتال» به بررسی این موضوع می‌پردازد که چگونه الگوریتم‌ها می‌توانند افراد را بر اساس نژاد هدف قرار داده و مشخصاتشان را نشان دهند و همچنین چگونه فناوری‌های دیجیتال سخنان نفرت‌انگیز و تعصب آنلاین را فعال می‌کنند. این کتاب همچنین توضیح می دهد که چگونه الگوریتم ها دیگر به طور انحصاری برای سیستم عامل های دیجیتال، مانند رسانه های اجتماعی و خرید آنلاین استفاده نمی شوند. آنها نقشی پنهان اما رو به رشد در خدمات عمومی حیاتی مانند بهداشت و مراقبت اجتماعی، رفاه، آموزش و بانکداری دارند.

نمونه‌های بی‌شماری از خطراتی که فناوری‌های دیجیتال می‌توانند ایجاد کنند وجود دارد – از رسوایی‌های بدنامی مانند سوء استفاده از داده‌های کمبریج آنالیتیکا و تعصب نژادی در الگوریتم ارزیابی خطر دادگاه‌های ایالات متحده، تا مسائل نوظهوری مانند احتمال برخورد بیشتر خودروهای خودران به عابران با پوست تیره‌تر و دستیاران مجازی که لهجه های مختلف را درک نمی کنند.

پروفسور ابراهیم نمونه‌های واقعی را نشان می‌دهد که چگونه پلتفرم‌های دیجیتال می‌توانند نابرابری‌های عمیق را آشکار و تقویت کنند – مانند الگوریتم فیس‌بوک که به نسل‌کشی روهینگیا کمک می‌کند، که در آن حدود 25000 نفر کشته و 700000 نفر دیگر آواره شده‌اند. عفو بین‌الملل دریافت که «سیستم‌های الگوریتمی فیس‌بوک به انتشار محتوای مضر ضد روهینگیا کمک می‌کردند» و این پلتفرم نتوانست پست‌های خطرناک را حذف کند زیرا از افزایش تعامل سود می‌برد.

اخیراً و نزدیک‌تر به خانه، “شکست سطح A و چرخش U توسط دولت بریتانیا” (2020) شاهد الگوریتمی بود که توسط تنظیم‌کننده امتحان Ofqual ایجاد شده بود که دانش‌آموزان را در مدارس دولتی کاهش داد و دانش‌آموزان را در مدارس مستقل با بودجه خصوصی ارتقا داد و جوانان ازوضعیت های اجتماعی-اقتصادی پایین تر را به ضرر کشاند..

به طور مشابه، مارک روته، نخست وزیر هلند و کل کابینه وی در سال 2021 استعفا دادند، زمانی که تحقیقات نشان داد که 26000 خانواده بی گناه به اشتباه به دلیل یک الگوریتم تبعیض آمیز به تقلب در مزایای اجتماعی متهم شده اند. این منجر شد که ده ها هزار نفر از والدین و مراقبین به دروغ توسط مقامات مالیاتی هلند متهم به کلاهبرداری از مزایای مراقبت از کودک شوند – اغلب آنهایی که درآمد کمتری دارند یا به اقلیت های قومی تعلق دارند.

کتاب جدید پروفسور ابراهیم با اشاره به کار اخیر او در “فناوری های تروما”، این موضوع را مطرح می کند که چگونه می توان پلتفرم های دیجیتال را به بهترین شکل تعدیل کرد. از آنجایی که الگوریتم‌ها فاقد انسانیت لازم برای قضاوت در مورد آنچه ممکن است برای افراد مضر باشد، این وظیفه اغلب بر عهده کارکنان کم دستمزد در قراردادهای ناپایدار است و مجبور می‌شوند به حجم وسیعی از محتوای آسیب‌زا نگاه کنند. پروفسور ابراهیم استدلال می کند که تعدیل محتوا باید به عنوان یک تجارت خطرناک با مقررات برای کارفرمایان و حمایت از کارمندان در نظر گرفته شود.

پروفسور ابراهیم در مورد انتشار “نژاد دیجیتال” گفت: “فناوری های دیجیتال پتانسیل ایجاد تغییرات اجتماعی مثبت را دارند، اما خطر گسترش و تشدید نابرابری های موجود را نیز به همراه دارند. من از اینکه بالاخره می توانم برای به اشتراک گذاشتن این کتاب با جهان، که امیدوارم گفتگوی انتقادی درباره نقش پلتفرم های دیجیتال و پیامدهایی که می تواند بر برابری داشته باشد، آغاز کند ، هیجان زده هستم.

با ظهور فناوری و نقش فزاینده آن در زندگی ما، اطمینان از اینکه فضاهای دیجیتالی نابرابری‌های نژادی را در جامعه ما تکرار نمی‌کنند، بیش از هر زمان دیگری گنجاندن و نمایندگی در سیستم عامل های دیجیتال ما مهم است..”

https://techxplore.com

آیا این نوشته برایتان مفید بود؟

مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *