1 دسامبر 2021
پلتفرم بازی Twitch ابزاری را معرفی کرده که کاربرانی را که از ممنوعیتها فرار میکنند شناسایی و حسابشان را مسدود میکند، که مشکلی قدیمی برای قربانیان آزار و اذیت می باشد .
رهبر پخش زنده بازیهای ویدیویی ماهها برای مهار موجی از آزار و اذیت نژادپرستانه و همجنسگرا هراسی که شامل به اصطلاح «حملههای نفرت انگیز » علیه تولیدکنندگان محتوا میشود، مبارزه کرده است.
این امر شناخته شده ای است که استالکرها وارد اتاقهای گفتگو میشوند و مدیران یا دیگران را با توهین یا تصاویر توهینآمیز دچار مشکل میکنند.در حالی که سازندگان یا مدها میتوانند چنین کاربرانی را مسدود کنند، برخی از آنها هنوز ، اغلب با ایجاد حسابهای ناشناس جدید راههایی برای بازگشت پیدا میکنند.
توییچ در بیانیه ای گفت: ابزار جدید برای کمک به شناسایی آن کاربران بر اساس تعدادی سیگنال حساب کاربری ایجاد شده است.
این ابزار از نرمافزار یادگیری ماشینی استفاده میکند، نوعی هوش مصنوعی، که شرکت میگوید حسابها را تجزیه و تحلیل میکند و حسابهای مشکوک را به عنوان کلاهبرداران «محتمل» یا «احتمال» به ناظران معرفی میکند.
توییچ گفت: “هیچ یادگیری ماشینی هرگز صد در صد دقیق نخواهد بود.” “به همین دلیل است که Suspicious User Detection به طور خودکار همه فرارهای احتمالی را ممنوع نمی کند.”
Twitch ادعا می کند که میزبان بیش از 30 میلیون کاربر در روز است. این پلتفرم متعلق به غول فناوری آمازون است که بر صنعت جهانی رایانش ابری تسلط دارد.
در ماه آگوست، گیمرها متحد شدند تا شرکت را تشویق کنند تا به حملات واکنش نشان دهد، زیرا نگرانی وجود داشت که Twitch در دفع هکرها و سوء استفاده کنندگان شکست خورده است.
توییچ شکایتی را علیه دو کاربر در اروپا تنظیم کرده است که می گوید چندین حساب را با هویت های مختلف مدیریت می کنند و هزاران ربات خودکار را در عرض چند دقیقه ایجاد کرده اند تا قربانیان خود را آزار دهند.