26 مه 2023 – توسط James V. Marrone- عکس از دیوید پپرکمپ/گتی ایماژ
شبکه های اجتماعی مشکل محتوا دارند. این خود محتوا نیست، اگرچه فهرست مطالب سمی طولانی است: اطلاعات نادرست، تبلیغات، تئوریهای توطئه، سخنان نفرتانگیز و تحریک به خشونت تنها چند مورد هستند. مشکل حجم عظیم محتوا است که بیشتر از هر گروهی از انسان ها می توانند مرور کنند. شرکتهایی مانند متا هزاران انسان را استخدام میکنند و میلیاردها دلار را صرف تعدیل میکنند – اما محتوای زیادی برای بررسی وجود دارد که این تیمهای انسانی به کمک نیاز دارند. کار آنها باید توسط کامپیوتر تکمیل شود.
متأسفانه، مردم هنوز در این کار تعدیل محتوا بسیار بهتر از رایانه ها هستند و افراد گرانی هستند. الگوریتمهای رایانهای برای شناسایی محتوای مشکلساز بر اساس مثالهای قبلی آموزش داده میشوند، افراد میتوانند بدون نیاز به چنین الگوهایی بفهمند که چه چیزی مشکلساز است. مردم اشتباه می کنند، اما الگوریتم ها نیز اشتباه می کنند. و لی از الگوریتم ها می توان پیشی گرفت. گاهی اوقات آنها زبان انسان را نمی فهمند بنابراین همیشه این خطر وجود دارد که محتوای سمی از طریق شکاف ها به داخل سر بخورد.
خطر محتوای سمی ثابت است، با این حال ما هر روز خطرات را دنبال می کنیم، گاهی اوقات بدون فکر زیاد. ممکن است خطر پیاده روی در یک بلوار شهری را به نظر بیاورید ، اما احتمالاً خطر پیاده روی در یک بزرگراه بین ایالتی را ندارید. پیاده روی در هر خیابانی با ماشین همیشه کمی خطرناک خواهد بود. سوال یکی از درجه هاست، اینکه فرد حاضر به پذیرش چه میزان ریسک است. هنگام پیادهروی، مسئله جاده و ماشینهای آن است – چند نفر، چقدر شلوغ، چقدر عرض؟
مشکلی که شرکتهای فناوری هنگام ارزیابی خطر محتوای سمی در پلتفرمهای رسانههای اجتماعی با آن مواجه میشوند، نحوه شناسایی آستانه است.
در رسانه های اجتماعی، سوال کاملا مشابه است: چقدر زیاده از حد است؟ ممکن است نسبتاً خوش خیم و حتی قابل قبول باشد که اجازه دهیم چند قطعه تبلیغات سیاسی از بین برود. اما اجازه دادن به یک کمپین تبلیغاتی هماهنگ خارجی برای گسترش در چندین پلتفرم تقریباً مطمئناً خطر زیادی دارد – اگرچه عوامل روسی بارها در سال 2016 (PDF)، 2020 و دوباره در سال 2022 موفق به انجام این کار شده اند.
مشکلی که شرکتهای فناوری هنگام ارزیابی خطر محتوای سمی در پلتفرمهای رسانههای اجتماعی با آن مواجه میشوند، نحوه شناسایی آستانه است. به عبارت دیگر چه چیزی ریسک زیادی را به همراه دارد؟ و به طور کلی سطح قابل قبول ریسک چیست؟ جاده ها و ماشین ها قوانین و الگوهای ترافیکی دارند. محتوای موجود در اینترنت بسیار لغزنده تر است. اینکه چه کسی آستانه ریسک را تعریف میکند و بر چه اساسی، سؤالاتی است که در قلب این مشکل آزاردهنده فزاینده قرار دارد.
خوشبختانه، این سوالات به خصوص جدید نیستند. ایالات متحده قبلاً اینجا بوده است، فقط در بخش دیگری. پیش از بحران مالی 2008، وال استریت بخش فناوری را از طرق مختلف پیشبینی کرد، که بیشتر از همه به دلیل اتکای فزاینده آن به الگوریتمها بود. در حالی که شرکتهای رسانههای اجتماعی از الگوریتمهایی برای کمک به انسان در تعدیل محتوا و تشخیص اینکه آیا یک حساب ربات است یا نه، استفاده میکنند، شرکتهای مالی از آنها برای محاسبه ریسک پرتفوی استفاده میکنند (و هنوز هم استفاده میکنند). درست مانند الگوریتم های فناوری امروزی، الگوریتم های مالی در سال 2008 محدودیت های جدی داشتند. جدیدترین محصولات مالی آنقدر پیچیده بودند که قیمت آنها واقعاً قابل محاسبه نبود. حتی رتبهبندی (PDF) که سرمایهگذاران برای اندازهگیری ریسک استفاده میکنند نیز به خوبی درک نشده بودند. در نتیجه، برآورد ریسک حتی برای خود شرکتها نیز مبهم و مبهم بود.
همه اینها در عصر مقررات زدایی اتفاق افتاد، زمانی که به بازارها اعتماد می شد تا استانداردهای خود را از طریق سازمان های خودتنظیمی (SROs)، مانند بورس اوراق بهادار، توسعه و اجرا کنند. در اوایل دهه 2000، مقامات دولتی – با اعطای اختیارات نظارتی – معتقد بودند که این SROها به درستی خطرات محصولات مالی جدید را برطرف می کنند. 2008 ثابت کرد که آنها اشتباه می کنند.
با این حال، به نظر می رسد ایمان به خودتنظیمی دوباره ظاهر شده است، این بار در بحث های مربوط به تنظیم فناوری. اساتید هاروارد و دانشگاه شیکاگو اخیراً پیشنهاد کرده اند که SROها بهترین گزینه نظارتی برای بخش فناوری هستند. موفقیت این استدلال به پتانسیل SROهای فناوری هنوز نوپای مانند Digital Trust and Safety Partnership برای تعریف و نظارت بر بهترین شیوه های صنعت برای ایمنی و تعدیل محتوا بستگی دارد. بر خلاف SROهای مالی، SROهای فناوری حتی بیاثر تر به نظر میرسند، زیرا توسط خود شرکتها سازماندهی میشوند و هیچ مرجع نظارتی مورد تایید دولت ندارند. با این حال، اقدامات اخیر برخی از شرکتها، مانند تغییر شکلدهی به دونالد ترامپ در پی شورش 6 ژانویه، به نظر میرسد که خودتنظیمی در حال حاضر کار میکند.
اما تاریخ بارها و بارها (PDF) ثابت کرد که خودتنظیمی برای کاهش خطرات مالی کافی نیست. در واقع، تاریخ در حال تکرار در رسانه های اجتماعی است. شکاف در تعدیل محتوا به محتوای مخرب اجازه می دهد تا از سایت های حاشیه ای به جریان اصلی پرش کند. خود تنظیمی این شکاف ها را از بین نمی برد و احتمالاً در آینده نیز این کار را نخواهد کرد، زیرا سایت های تخصصی و حاشیه ای به صراحت از خودتنظیمی خودداری می کنند. چنین سایتهایی همیشه بدون هیچ استاندارد صنعتی باقی میمانند و به عنوان Ground Zero برای تئوریهای توطئه جدید و اطلاعات نادرست عمل میکنند. به عنوان مثال، نیویورک تایمز گزارش داد که دروغ های انتخاباتی منتشر شده در پلت فرم حاشیه ای حقیقت اجتماعی دونالد ترامپ توسط بیش از یک میلیون کاربر در حداقل ده ها سایت دیگر مشاهده شده است، همه آنها تنها در عرض 48 ساعت.
به جای اعتماد به خودتنظیمی، ایالات متحده می تواند از مقررات خود در مورد وال استریت پس از سال 2008 به عنوان یک نقشه راه برای تنظیم فناوری استفاده کند. برای مثال، قانون Dodd-Frank در سال 2010 (PDF) را موظف کرد که ریسک سیستمی مالی توسط یک نهاد نظارتی نظارتی، که اکنون شورای نظارت بر ثبات مالی (FSOC) نامیده می شود، نظارت شود. چارچوب Dodd-Frank چندین مزیت را برای مقررات فنی ارائه می دهد. اول، این چارچوب شفافیت را الزامی می کند، زیرا ممیزی ها حریم خصوصی شرکت ها را حفظ می کند و در عین حال از مقایسه منصفانه توسط تنظیم کننده اطمینان حاصل می کند. و دوم، این چارچوب انعطافپذیری را ارائه میدهد، زیرا استانداردهای نظارتی میتوانند در طول زمان برای انطباق با فنآوریهای جدید، مانند دیپ فیک، و استفادههای جدید از فناوری موجود، مانند کد داروی ایموجی، تکامل یابند.
قرار دادن ریسک در مرکز یک چارچوب نظارتی، جامعه را مجبور میکند آنچه را که امکانپذیر است بپذیرد، نه آنچه ایدهآل است – ممکن است، نه غیرممکن.
رگولاتورهای اتحادیه اروپا قبلاً با تصویب قانون خدمات دیجیتال برجسته نشان داده اند که نسخه فناوری Dodd-Frank ممکن است چگونه باشد. DSA شامل چندین شرط است که داد فرانک را تکرار می کند: ایجاد یک هیئت مستقل برای هماهنگ کنندگان خدمات دیجیتال، بسیار شبیه به FSOC. ممیزی سالانه پلتفرم های فناوری، که ممکن است بسیار شبیه تست های استرس فدرال رزرو به نظر برسد. دسترسی به داده های پلتفرم ها، مشابه دسترسی تنظیم کننده ها به داده های بانکی؛ و تعیین پلتفرمهای آنلاین بسیار بزرگ که مشمول مقررات اضافی هستند، مشابه تعیین FSOC برای مؤسسات مالی مهم سیستمی.
قرار دادن ریسک در مرکز یک چارچوب نظارتی، جامعه را مجبور میکند آنچه را که امکانپذیر است بپذیرد، نه آنچه ایدهآل است – ممکن است، نه غیرممکن. پلتفرمهای آنلاین، کاربران را به مردم سراسر جهان متصل میکنند تا به نفع میلیونها نفر باشند. اما بهرهمندی از این مزایا خطر مواجهه با ایدههای سمی و گفتار مضر را به همراه دارد. به عنوان یک جامعه، ممکن است بپرسیم که چقدر از این خطر را میخواهیم تحمل کنیم – در حالی که از تاریخ اخیر درسهایی در مورد تنظیم و مدیریت آن خطر میگیریم.