نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

2 آذر 1403 2:49 ق.ظ

ویدیوهای دیپ فیک باعث ایجاد خاطرات نادرست از فیلم ها در نیمی از مشاهده کنندگان می شود

13 جولای 2023 – توسط کتابخانه عمومی علوم

نویسندگان پیشنهاد می‌کنند که برای تحریف حافظه به پیشرفت‌های فنی نیازی نداریم، می‌توانیم آن را بسیار آسان و مؤثر با استفاده از ابزارهای غیر فنی انجام دهیم. اعتبار: Anemone123، Pixabay، CC0

در یک مطالعه جدید، کلیپ‌های ویدیویی عمیق‌فیک از بازسازی‌های فیلمهایی که در واقع وجود ندارند، شرکت‌کنندگان را وادار کرد که فیلم‌ها را به اشتباه به خاطر بسپارند – اما توصیف‌های متنی ساده فیلم‌های جعلی باعث شد میزان حافظه کاذب مشابهی وجود داشته باشد. گیلیان مورفی از دانشگاه کالج کورک، ایرلند، و لرو، مرکز تحقیقاتی نرم‌افزار بنیاد علمی ایرلند و همکارانش این یافته‌ها را در مجله دسترسی آزاد PLOS ONE ارائه کردند.

ویدیوهای Deepfake کلیپ هایی هستند که با استفاده از فناوری هوش مصنوعی (AI) تغییر داده شده اند تا صدا یا چهره یک فرد را با صدای یک فرد دیگر تغییر دهند. ابزارهای ساخت دیپ‌فیک اخیراً بسیار ارزان‌تر و در دسترس‌تر شده‌اند و مکالمات درباره برنامه‌های خلاقانه بالقوه و همچنین خطرات بالقوه را تقویت می‌کنند – مانند انتشار اطلاعات نادرست و دستکاری خاطرات بینندگان.

برای کشف خطرات و مزایای احتمالی، مورفی و همکارانش از 436 نفر دعوت کردند تا یک نظرسنجی آنلاین را تکمیل کنند که شامل تماشای ویدیوهای عمیق جعلی از بازسازی فیلم های جعلی با بازی بازیگران مختلف، مانند ویل اسمیت در نقش شخصیت نئو – که در اصل کیانو ریوز بازی می کرد – در ماتریکس و برد پیت و آنجلینا جولی در فیلم The Shining. دیگر بازسازی های جعلی در این مطالعه ایندیانا جونز و کاپیتان مارول بودند.

برای مقایسه، شرکت کنندگان همچنین کلیپ هایی از بازسازی های واقعی، از جمله Charlie & The Chocolate Factory، Total Recall، Carrie و Tomb Raider را دیدند. همچنین، در برخی موارد، شرکت‌کنندگان به‌جای تماشای دیپ‌فیک‌ها، توضیحات متنی بازسازی‌ها را می‌خوانند. تا زمانی که بعداً در نظرسنجی به شرکت کنندگان گفته نشد که دیپ فیک ها نادرست هستند.

مطابق با مطالعات قبلی، ویدیوها و توضیحات دیپ‌فیک خاطرات نادرستی از بازسازی‌های جعلی ایجاد کردند، به‌طور متوسط 49 درصد از شرکت‌کنندگان معتقد بودند که هر بازسازی جعلی واقعی است. بسیاری از شرکت کنندگان گزارش دادند که به خاطر داشتند بازسازی های جعلی بهتر از نسخه های اصلی بودند. با این حال، نرخ حافظه کاذب از توضیحات متن به طور مشابه بالا بود، که نشان می‌دهد فناوری دیپ‌فیک ممکن است قدرتمندتر از سایر ابزارها در تحریف حافظه نباشد.

اکثر شرکت‌کنندگان گزارش دادند که از فناوری دیپ‌فیک که برای بازسازی فیلم‌ها استفاده می‌شود ناراحت بودند و نگرانی‌هایی از جمله بی‌احترامی به یکپارچگی هنری و برهم زدن تجربیات اجتماعی مشترک فیلم‌ها را ذکر کردند.

این یافته‌ها می‌تواند به طراحی و تنظیم آینده فناوری دیپ‌فیک در فیلم‌ها کمک کند.

نویسندگان می‌افزایند: «در حالی که دیپ‌فیک‌ها به دلایل زیادی مانند هرزه‌نگاری و قلدری غیراجماعی نگران‌کننده هستند، مطالعه کنونی نشان می‌دهد که در تحریف خاطرات ما از گذشته به‌طور منحصربه‌فردی قدرتمند نیستند. اگرچه دیپ‌فیک‌ها باعث می‌شوند که افراد خاطرات کاذب در آنها ایجاد کنند. با نرخ بسیار بالا در این مطالعه، ما به همان اثرات با استفاده از متن ساده دست یافتیم. در اصل، این مطالعه نشان می‌دهد که برای تحریف حافظه نیازی به پیشرفت‌های فنی نداریم، می‌توانیم آن را به راحتی و به طور موثر با استفاده از ابزارهای غیر فنی انجام دهیم.

https://techxplore.com

آیا این نوشته برایتان مفید بود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *