13 جولای 2023 – توسط کتابخانه عمومی علوم
نویسندگان پیشنهاد میکنند که برای تحریف حافظه به پیشرفتهای فنی نیازی نداریم، میتوانیم آن را بسیار آسان و مؤثر با استفاده از ابزارهای غیر فنی انجام دهیم. اعتبار: Anemone123، Pixabay، CC0
در یک مطالعه جدید، کلیپهای ویدیویی عمیقفیک از بازسازیهای فیلمهایی که در واقع وجود ندارند، شرکتکنندگان را وادار کرد که فیلمها را به اشتباه به خاطر بسپارند – اما توصیفهای متنی ساده فیلمهای جعلی باعث شد میزان حافظه کاذب مشابهی وجود داشته باشد. گیلیان مورفی از دانشگاه کالج کورک، ایرلند، و لرو، مرکز تحقیقاتی نرمافزار بنیاد علمی ایرلند و همکارانش این یافتهها را در مجله دسترسی آزاد PLOS ONE ارائه کردند.
ویدیوهای Deepfake کلیپ هایی هستند که با استفاده از فناوری هوش مصنوعی (AI) تغییر داده شده اند تا صدا یا چهره یک فرد را با صدای یک فرد دیگر تغییر دهند. ابزارهای ساخت دیپفیک اخیراً بسیار ارزانتر و در دسترستر شدهاند و مکالمات درباره برنامههای خلاقانه بالقوه و همچنین خطرات بالقوه را تقویت میکنند – مانند انتشار اطلاعات نادرست و دستکاری خاطرات بینندگان.
برای کشف خطرات و مزایای احتمالی، مورفی و همکارانش از 436 نفر دعوت کردند تا یک نظرسنجی آنلاین را تکمیل کنند که شامل تماشای ویدیوهای عمیق جعلی از بازسازی فیلم های جعلی با بازی بازیگران مختلف، مانند ویل اسمیت در نقش شخصیت نئو – که در اصل کیانو ریوز بازی می کرد – در ماتریکس و برد پیت و آنجلینا جولی در فیلم The Shining. دیگر بازسازی های جعلی در این مطالعه ایندیانا جونز و کاپیتان مارول بودند.
برای مقایسه، شرکت کنندگان همچنین کلیپ هایی از بازسازی های واقعی، از جمله Charlie & The Chocolate Factory، Total Recall، Carrie و Tomb Raider را دیدند. همچنین، در برخی موارد، شرکتکنندگان بهجای تماشای دیپفیکها، توضیحات متنی بازسازیها را میخوانند. تا زمانی که بعداً در نظرسنجی به شرکت کنندگان گفته نشد که دیپ فیک ها نادرست هستند.
مطابق با مطالعات قبلی، ویدیوها و توضیحات دیپفیک خاطرات نادرستی از بازسازیهای جعلی ایجاد کردند، بهطور متوسط 49 درصد از شرکتکنندگان معتقد بودند که هر بازسازی جعلی واقعی است. بسیاری از شرکت کنندگان گزارش دادند که به خاطر داشتند بازسازی های جعلی بهتر از نسخه های اصلی بودند. با این حال، نرخ حافظه کاذب از توضیحات متن به طور مشابه بالا بود، که نشان میدهد فناوری دیپفیک ممکن است قدرتمندتر از سایر ابزارها در تحریف حافظه نباشد.
اکثر شرکتکنندگان گزارش دادند که از فناوری دیپفیک که برای بازسازی فیلمها استفاده میشود ناراحت بودند و نگرانیهایی از جمله بیاحترامی به یکپارچگی هنری و برهم زدن تجربیات اجتماعی مشترک فیلمها را ذکر کردند.
این یافتهها میتواند به طراحی و تنظیم آینده فناوری دیپفیک در فیلمها کمک کند.
نویسندگان میافزایند: «در حالی که دیپفیکها به دلایل زیادی مانند هرزهنگاری و قلدری غیراجماعی نگرانکننده هستند، مطالعه کنونی نشان میدهد که در تحریف خاطرات ما از گذشته بهطور منحصربهفردی قدرتمند نیستند. اگرچه دیپفیکها باعث میشوند که افراد خاطرات کاذب در آنها ایجاد کنند. با نرخ بسیار بالا در این مطالعه، ما به همان اثرات با استفاده از متن ساده دست یافتیم. در اصل، این مطالعه نشان میدهد که برای تحریف حافظه نیازی به پیشرفتهای فنی نداریم، میتوانیم آن را به راحتی و به طور موثر با استفاده از ابزارهای غیر فنی انجام دهیم.