15 فوریه 2023 -توسط کوئین مری، دانشگاه لندن
اعتبار: Rowman & Littlefield
نشریه جدیدی از پروفسور یاسمین ابراهیم از دانشکده تجارت و مدیریت ملکه مری هشدار میدهد که در دنیای دیجیتالی با رشد فزاینده، فناوری نابرابریهای اجتماعی تاریخی را ترویج میکند مگر اینکه سیستم به چالش کشیده شود و تغییر کند.
آخرین کتاب پروفسور ابراهیم از تحقیقات از علوم کامپیوتر گرفته تا جامعهشناسی و مطالعات نژادی انتقادی استفاده میکند و نشان میدهد که چگونه پلتفرمها و الگوریتمهای دیجیتال میتوانند نگرشها و رفتارهای اجتماعی را شکل دهند.
«نژاد دیجیتال: خشونت الگوریتمی و پلتفرمهای دیجیتال» به بررسی این موضوع میپردازد که چگونه الگوریتمها میتوانند افراد را بر اساس نژاد هدف قرار داده و مشخصاتشان را نشان دهند و همچنین چگونه فناوریهای دیجیتال سخنان نفرتانگیز و تعصب آنلاین را فعال میکنند. این کتاب همچنین توضیح می دهد که چگونه الگوریتم ها دیگر به طور انحصاری برای سیستم عامل های دیجیتال، مانند رسانه های اجتماعی و خرید آنلاین استفاده نمی شوند. آنها نقشی پنهان اما رو به رشد در خدمات عمومی حیاتی مانند بهداشت و مراقبت اجتماعی، رفاه، آموزش و بانکداری دارند.
نمونههای بیشماری از خطراتی که فناوریهای دیجیتال میتوانند ایجاد کنند وجود دارد – از رسواییهای بدنامی مانند سوء استفاده از دادههای کمبریج آنالیتیکا و تعصب نژادی در الگوریتم ارزیابی خطر دادگاههای ایالات متحده، تا مسائل نوظهوری مانند احتمال برخورد بیشتر خودروهای خودران به عابران با پوست تیرهتر و دستیاران مجازی که لهجه های مختلف را درک نمی کنند.
پروفسور ابراهیم نمونههای واقعی را نشان میدهد که چگونه پلتفرمهای دیجیتال میتوانند نابرابریهای عمیق را آشکار و تقویت کنند – مانند الگوریتم فیسبوک که به نسلکشی روهینگیا کمک میکند، که در آن حدود 25000 نفر کشته و 700000 نفر دیگر آواره شدهاند. عفو بینالملل دریافت که «سیستمهای الگوریتمی فیسبوک به انتشار محتوای مضر ضد روهینگیا کمک میکردند» و این پلتفرم نتوانست پستهای خطرناک را حذف کند زیرا از افزایش تعامل سود میبرد.
اخیراً و نزدیکتر به خانه، “شکست سطح A و چرخش U توسط دولت بریتانیا” (2020) شاهد الگوریتمی بود که توسط تنظیمکننده امتحان Ofqual ایجاد شده بود که دانشآموزان را در مدارس دولتی کاهش داد و دانشآموزان را در مدارس مستقل با بودجه خصوصی ارتقا داد و جوانان ازوضعیت های اجتماعی-اقتصادی پایین تر را به ضرر کشاند..
به طور مشابه، مارک روته، نخست وزیر هلند و کل کابینه وی در سال 2021 استعفا دادند، زمانی که تحقیقات نشان داد که 26000 خانواده بی گناه به اشتباه به دلیل یک الگوریتم تبعیض آمیز به تقلب در مزایای اجتماعی متهم شده اند. این منجر شد که ده ها هزار نفر از والدین و مراقبین به دروغ توسط مقامات مالیاتی هلند متهم به کلاهبرداری از مزایای مراقبت از کودک شوند – اغلب آنهایی که درآمد کمتری دارند یا به اقلیت های قومی تعلق دارند.
کتاب جدید پروفسور ابراهیم با اشاره به کار اخیر او در “فناوری های تروما”، این موضوع را مطرح می کند که چگونه می توان پلتفرم های دیجیتال را به بهترین شکل تعدیل کرد. از آنجایی که الگوریتمها فاقد انسانیت لازم برای قضاوت در مورد آنچه ممکن است برای افراد مضر باشد، این وظیفه اغلب بر عهده کارکنان کم دستمزد در قراردادهای ناپایدار است و مجبور میشوند به حجم وسیعی از محتوای آسیبزا نگاه کنند. پروفسور ابراهیم استدلال می کند که تعدیل محتوا باید به عنوان یک تجارت خطرناک با مقررات برای کارفرمایان و حمایت از کارمندان در نظر گرفته شود.
پروفسور ابراهیم در مورد انتشار “نژاد دیجیتال” گفت: “فناوری های دیجیتال پتانسیل ایجاد تغییرات اجتماعی مثبت را دارند، اما خطر گسترش و تشدید نابرابری های موجود را نیز به همراه دارند. من از اینکه بالاخره می توانم برای به اشتراک گذاشتن این کتاب با جهان، که امیدوارم گفتگوی انتقادی درباره نقش پلتفرم های دیجیتال و پیامدهایی که می تواند بر برابری داشته باشد، آغاز کند ، هیجان زده هستم.
با ظهور فناوری و نقش فزاینده آن در زندگی ما، اطمینان از اینکه فضاهای دیجیتالی نابرابریهای نژادی را در جامعه ما تکرار نمیکنند، بیش از هر زمان دیگری گنجاندن و نمایندگی در سیستم عامل های دیجیتال ما مهم است..”