نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

13 اردیبهشت 1403 4:28 ق.ظ

چگونه پلتفرم ها می توانند با محتوای سمی مقابله کنند؟

26 مه 2023 – توسط James V. Marrone- عکس از دیوید پپرکمپ/گتی ایماژ

شبکه های اجتماعی مشکل محتوا دارند. این خود محتوا نیست، اگرچه فهرست مطالب سمی طولانی است: اطلاعات نادرست، تبلیغات، تئوری‌های توطئه، سخنان نفرت‌انگیز و تحریک به خشونت تنها چند مورد هستند. مشکل حجم عظیم محتوا است که بیشتر از هر گروهی از انسان ها می توانند مرور کنند. شرکت‌هایی مانند متا هزاران انسان را استخدام می‌کنند و میلیاردها دلار را صرف تعدیل می‌کنند – اما محتوای زیادی برای بررسی وجود دارد که این تیم‌های انسانی به کمک نیاز دارند. کار آنها باید توسط کامپیوتر تکمیل شود.

متأسفانه، مردم هنوز در این کار تعدیل محتوا بسیار بهتر از رایانه ها هستند و افراد گرانی هستند. الگوریتم‌های رایانه‌ای برای شناسایی محتوای مشکل‌ساز بر اساس مثال‌های قبلی آموزش داده می‌شوند، افراد می‌توانند بدون نیاز به چنین الگوهایی بفهمند که چه چیزی مشکل‌ساز است. مردم اشتباه می کنند، اما الگوریتم ها نیز اشتباه می کنند. و لی از الگوریتم ها  می توان پیشی گرفت. گاهی اوقات آنها زبان انسان را نمی فهمند بنابراین همیشه این خطر وجود دارد که محتوای سمی از طریق شکاف ها  به داخل سر بخورد.

خطر محتوای سمی ثابت است، با این حال ما هر روز خطرات را دنبال می کنیم، گاهی اوقات بدون فکر زیاد. ممکن است خطر پیاده روی در یک بلوار شهری را به نظر بیاورید ، اما احتمالاً خطر پیاده روی در یک بزرگراه بین ایالتی را ندارید. پیاده روی در هر خیابانی با ماشین همیشه کمی خطرناک خواهد بود. سوال یکی از درجه هاست، اینکه فرد حاضر به پذیرش چه میزان ریسک است. هنگام پیاده‌روی، مسئله جاده و ماشین‌های آن است – چند نفر، چقدر شلوغ، چقدر عرض؟

مشکلی که شرکت‌های فناوری هنگام ارزیابی خطر محتوای سمی در پلتفرم‌های رسانه‌های اجتماعی با آن مواجه می‌شوند، نحوه شناسایی آستانه است.

در رسانه های اجتماعی، سوال کاملا مشابه است: چقدر زیاده از حد است؟ ممکن است نسبتاً خوش خیم و حتی قابل قبول باشد که اجازه دهیم چند قطعه تبلیغات سیاسی از بین برود. اما اجازه دادن به یک کمپین تبلیغاتی هماهنگ خارجی برای گسترش در چندین پلتفرم تقریباً مطمئناً خطر زیادی دارد – اگرچه عوامل روسی بارها در سال 2016 (PDF)، 2020 و دوباره در سال 2022 موفق به انجام این کار شده اند.

مشکلی که شرکت‌های فناوری هنگام ارزیابی خطر محتوای سمی در پلتفرم‌های رسانه‌های اجتماعی با آن مواجه می‌شوند، نحوه شناسایی آستانه است. به عبارت دیگر چه چیزی ریسک زیادی را به همراه دارد؟ و به طور کلی سطح قابل قبول ریسک چیست؟ جاده ها و ماشین ها قوانین و الگوهای ترافیکی دارند. محتوای موجود در اینترنت بسیار لغزنده تر است. اینکه چه کسی آستانه ریسک را تعریف می‌کند و بر چه اساسی، سؤالاتی است که در قلب این مشکل آزاردهنده فزاینده قرار دارد.

خوشبختانه، این سوالات به خصوص جدید نیستند. ایالات متحده قبلاً اینجا بوده است، فقط در بخش دیگری. پیش از بحران مالی 2008، وال استریت بخش فناوری را از طرق مختلف پیش‌بینی کرد، که بیشتر از همه به دلیل اتکای فزاینده آن به الگوریتم‌ها بود. در حالی که شرکت‌های رسانه‌های اجتماعی از الگوریتم‌هایی برای کمک به انسان در تعدیل محتوا و تشخیص اینکه آیا یک حساب ربات است یا نه، استفاده می‌کنند، شرکت‌های مالی از آنها برای محاسبه ریسک پرتفوی استفاده می‌کنند (و هنوز هم استفاده می‌کنند). درست مانند الگوریتم های فناوری امروزی، الگوریتم های مالی در سال 2008 محدودیت های جدی داشتند. جدیدترین محصولات مالی آنقدر پیچیده بودند که قیمت آنها واقعاً قابل محاسبه نبود. حتی رتبه‌بندی (PDF) که سرمایه‌گذاران برای اندازه‌گیری ریسک استفاده می‌کنند نیز به خوبی درک نشده بودند. در نتیجه، برآورد ریسک حتی برای خود شرکت‌ها نیز مبهم و مبهم بود.

همه اینها در عصر مقررات زدایی اتفاق افتاد، زمانی که به بازارها اعتماد می شد تا استانداردهای خود را از طریق سازمان های خودتنظیمی (SROs)، مانند بورس اوراق بهادار، توسعه و اجرا کنند. در اوایل دهه 2000، مقامات دولتی – با اعطای اختیارات نظارتی – معتقد بودند که این SROها به درستی خطرات محصولات مالی جدید را برطرف می کنند. 2008 ثابت کرد که آنها اشتباه می کنند.

با این حال، به نظر می رسد ایمان به خودتنظیمی دوباره ظاهر شده است، این بار در بحث های مربوط به تنظیم فناوری. اساتید هاروارد و دانشگاه شیکاگو اخیراً پیشنهاد کرده اند که SROها بهترین گزینه نظارتی برای بخش فناوری هستند. موفقیت این استدلال به پتانسیل SROهای فناوری هنوز نوپای مانند Digital Trust and Safety Partnership برای تعریف و نظارت بر بهترین شیوه های صنعت برای ایمنی و تعدیل محتوا بستگی دارد. بر خلاف SROهای مالی، SROهای فناوری حتی بی‌اثر تر به نظر می‌رسند، زیرا توسط خود شرکت‌ها سازماندهی می‌شوند و هیچ مرجع نظارتی مورد تایید دولت ندارند. با این حال، اقدامات اخیر برخی از شرکت‌ها، مانند تغییر شکل‌دهی به دونالد ترامپ در پی شورش 6 ژانویه، به نظر می‌رسد که خودتنظیمی در حال حاضر کار می‌کند.

اما تاریخ بارها و بارها (PDF) ثابت کرد که خودتنظیمی برای کاهش خطرات مالی کافی نیست. در واقع، تاریخ در حال تکرار در رسانه های اجتماعی است. شکاف در تعدیل محتوا به محتوای مخرب اجازه می دهد تا از سایت های حاشیه ای به جریان اصلی پرش کند. خود تنظیمی این شکاف ها را از بین نمی برد و احتمالاً در آینده نیز این کار را نخواهد کرد، زیرا سایت های تخصصی و حاشیه ای به صراحت از خودتنظیمی خودداری می کنند. چنین سایت‌هایی همیشه بدون هیچ استاندارد صنعتی باقی می‌مانند و به عنوان Ground Zero برای تئوری‌های توطئه جدید و اطلاعات نادرست عمل می‌کنند. به عنوان مثال، نیویورک تایمز گزارش داد که دروغ های انتخاباتی منتشر شده در پلت فرم حاشیه ای حقیقت اجتماعی دونالد ترامپ توسط بیش از یک میلیون کاربر در حداقل ده ها سایت دیگر مشاهده شده است، همه آنها تنها در عرض 48 ساعت.

به جای اعتماد به خودتنظیمی، ایالات متحده می تواند از مقررات خود در مورد وال استریت پس از سال 2008 به عنوان یک نقشه راه برای تنظیم فناوری استفاده کند. برای مثال، قانون Dodd-Frank در سال 2010 (PDF) را موظف کرد که ریسک سیستمی مالی توسط یک نهاد نظارتی نظارتی، که اکنون شورای نظارت بر ثبات مالی (FSOC) نامیده می شود، نظارت شود. چارچوب Dodd-Frank چندین مزیت را برای مقررات فنی ارائه می دهد. اول، این چارچوب شفافیت را الزامی می کند، زیرا ممیزی ها حریم خصوصی شرکت ها را حفظ می کند و در عین حال از مقایسه منصفانه توسط تنظیم کننده اطمینان حاصل می کند. و دوم، این چارچوب انعطاف‌پذیری را ارائه می‌دهد، زیرا استانداردهای نظارتی می‌توانند در طول زمان برای انطباق با فن‌آوری‌های جدید، مانند دیپ فیک، و استفاده‌های جدید از فناوری موجود، مانند کد داروی ایموجی، تکامل یابند.

قرار دادن ریسک در مرکز یک چارچوب نظارتی، جامعه را مجبور می‌کند آنچه را که امکان‌پذیر است بپذیرد، نه آنچه ایده‌آل است – ممکن است، نه غیرممکن.

رگولاتورهای اتحادیه اروپا قبلاً با تصویب قانون خدمات دیجیتال برجسته نشان داده اند که نسخه فناوری Dodd-Frank ممکن است چگونه باشد. DSA شامل چندین شرط است که داد فرانک را تکرار می کند: ایجاد یک هیئت مستقل برای هماهنگ کنندگان خدمات دیجیتال، بسیار شبیه به FSOC. ممیزی سالانه پلتفرم های فناوری، که ممکن است بسیار شبیه تست های استرس فدرال رزرو به نظر برسد. دسترسی به داده های پلتفرم ها، مشابه دسترسی تنظیم کننده ها به داده های بانکی؛ و تعیین پلتفرم‌های آنلاین بسیار بزرگ که مشمول مقررات اضافی هستند، مشابه تعیین FSOC برای مؤسسات مالی مهم سیستمی.

قرار دادن ریسک در مرکز یک چارچوب نظارتی، جامعه را مجبور می‌کند آنچه را که امکان‌پذیر است بپذیرد، نه آنچه ایده‌آل است – ممکن است، نه غیرممکن. پلتفرم‌های آنلاین، کاربران را به مردم سراسر جهان متصل می‌کنند تا به نفع میلیون‌ها نفر باشند. اما بهره‌مندی از این مزایا خطر مواجهه با ایده‌های سمی و گفتار مضر را به همراه دارد. به عنوان یک جامعه، ممکن است بپرسیم که چقدر از این خطر را می‌خواهیم تحمل کنیم – در حالی که از تاریخ اخیر درس‌هایی در مورد تنظیم و مدیریت آن خطر می‌گیریم.

https://www.rand.org

آیا این نوشته برایتان مفید بود؟

مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *