
۸ دسامبر ۲۰۲۵- الینا تریگر، جوزف ماتوینکو، لینسی آیر
گزارشهای مربوط به روانپریشی ناشی از هوش مصنوعی (AIP) نشان میدهد که مدلهای زبان بزرگ (LLM) و سیستمهای هوش عمومی مصنوعی (AGI) آینده ممکن است قادر به القا یا تقویت توهمات یا دورههای روانپریشی در کاربران انسانی باشند. تا به امروز، AIP در درجه اول به عنوان یک نگرانی عمومی یا سلامت روان مورد بحث قرار گرفته است.
در این گزارش، نویسندگان دامنه این پدیده و اینکه آیا و چگونه LLMها – و در نهایت، AGI – میتوانند تهدیدات امنیت ملی قابل توجهی ایجاد کنند را بررسی میکنند. آیا میتوان از این قابلیت برای القای روانپریشی در مقیاس بزرگ یا در گروههای هدف استفاده کرد؟ چه نوع آسیبی ممکن است ایجاد شود؟ نویسندگان ارزیابی میکنند که کدام اهداف ممکن است آسیبپذیرترین باشند، دامنه بالقوه آسیب چقدر است و چگونه دشمنان ممکن است از این قابلیت علیه افراد، گروهها یا جمعیتهای کلیدی سوءاستفاده کنند.
یافتههای کلیدی
- نحوه توصیف و محدود کردن علائم منتسب به AIP تا حد زیادی تخمینهای مقیاس و خطرات امنیت ملی که AIP ممکن است ایجاد کند را تعیین میکند.
- مکانیسم فرضیهای اصلی که AIP را ایجاد میکند، یک حلقه تقویت باور دو طرفه بین چاپلوسی هوش مصنوعی و آسیبپذیریهای شناختی کاربر است که هر دو در طول تعامل پایدار تقویت میشوند.
- شواهد موردی موجود همچنان پراکنده و ناهموار است، که تخمینهای مطمئن از مقیاس، انتساب علی یا تأیید مکانیسم AIP را محدود میکند.
- گزارشهای مستند نشان میدهد که اکثر افراد تحت تأثیر AIP دارای شرایط یا توهمات سلامت روان قبلی بودهاند، اگرچه اقلیتی از افراد تحت تأثیر ممکن است هیچ نگرانی قبلی در مورد سلامت روان نداشته باشند.
- سناریوهای بالقوه AIP ممکن است به دلیل مقیاس، اینکه چه کسی تحت تأثیر قرار میگیرد و چگونه تحت تأثیر قرار میگیرد، تهدیدی برای امنیت ملی باشند. در سناریوهای بررسیشده، که شامل تقویت توهم تصادفی (رانش معرفتی)، تسلیحاتی شدن و هوش مصنوعی عمومی (AGI) به شدت ناهماهنگ هستند، تأثیرات با محدودیتهای مکرر تکنولوژیکی و عملی، زیستروانشناختی، مبتنی بر بازار و استراتژیک محدود میشوند.
- محتملترین سناریوهایی که از رانش معرفتی ناشی میشوند، احتمالاً از نظر مقیاس محدود هستند و در جمعیتها یا افرادی که در موقعیت تأثیرگذاری بر امنیت ملی هستند، متمرکز نیستند.
- نگرانکنندهترین آسیبهای محتمل به امنیت ملی ناشی از تسلیحاتی شدن یا هوش مصنوعی عمومی به شدت ناهماهنگ میتواند افراد یا گروههای مشخصی را هدف قرار دهد که قضاوت مختل یا رفتارهای مضر عمدی آنها میتواند بر عملکردهای امنیت ملی تأثیر بگذارد.
توصیهها
بهبود تشخیص و گزارشدهی زودهنگام سیستماتیک. ارائهدهندگان خدمات سلامت روان و مراقبتهای اولیه را تشویق کنید تا استفاده اخیر یا زیاد از LLM را در بیماران خود غربالگری کنند. این امر مقیاس پدیده را در برخی از جمعیتهای آسیبپذیر نشان میدهد، زیرا توسعهدهندگان هوش مصنوعی مدلهای خود را برای کاهش رفتارهای نامطلوب تنظیم میکنند.
کاربران بالقوه LLM را در مورد نقاط قوت و محدودیتهای این مدلها، از جمله امکان تقویت باور دو طرفه، آموزش دهید. برای مثال، ارائه دهندگان خدمات سلامت روان باید بیماران خود را در مورد خطرات استفاده از LLM آموزش دهند.
تحقیقات پیشرفته برای ایجاد یک پایگاه شواهد تجربی. مطالعات مربوط به شیوع، عوامل خطر و مکانیسمهای روانی-اجتماعی AIP، از جمله مطالعات طولی برای درک اثرات بلندمدت، باید پشتیبانی شوند.
نظارت فنی و ارزیابی مدل را ادغام کنید. توسعهدهندگان هوش مصنوعی را تشویق کنید تا میزان رفتارهای تقویتکننده باورهای توهمی را در طول ارزیابیهای ایمنی و تیم قرمز اندازهگیری و گزارش عمومی کنند. این تلاشها در حال حاضر توسط شرکتهای بزرگ در حال انجام است.
ایجاد تابآوری شناختی و اجتماعی در میان جمعیتهای با ارزش بالا و پرخطر بدون سابقه شناخته شده روانپریشی. آموزش سواد دیجیتال و تابآوری شناختی را در آموزش، آمادگی نظامی و برنامههای جانبازان ادغام کنید.
تحقیقات دفاعی AGI را ترویج دهید. همانطور که بازیگران آمریکایی برای AGI تلاش میکنند، توسعهدهندگان، محققان و دولت باید در توسعه قابلیتهای دفاعی که از تشخیص و مقابله با آسیبهای شناختی و حلقههای توهم سلاحی پشتیبانی میکنند، سرمایهگذاری کنند.
آمادگی دولت را برای تشخیص و پاسخ به کمپینهای شناختی خصمانه تقویت کنید. سناریوهای تهدید مشابه AIP را در برنامههای تیم قرمز بین سازمانی ادغام کنید تا پروتکلهای تشخیص، انتساب و پاسخ را آزمایش کنید.











