8 نوامبر 2024 -توسط کیتی مارکوارت هیل، دانشگاه کلرادو در بولدر-اعتبار: CC0 دامنه عمومی
تصور کنید سرقتی رخ داده است، و پلیس از شاهدان میخواهد که یک مظنون را از یک صف شناسایی کنند. یکی از شاهدان میگوید: «چشمهایش را به خاطر میآورم»، در حالی که دیگری به سادگی میگوید: «او را میشناسم». شاهد اول به دلیل یک سوگیری شناختی که به عنوان اثر توجیهی ویژه شناخته می شود، کمتر قابل اعتماد تلقی می شود. این به نحوه تفسیر افراد اعتماد به نفس و قابلیت اطمینان حافظه در زمینه شناسایی صف یک شاهد عینی مربوط می شود.
تحقیقات نشان میدهد که شاهدان عینی که توصیفهای دقیقی از ویژگیها ارائه میکنند، شک و تردیدهایی را ایجاد میکنند، در حالی که اظهارات تشخیص کلی بیشتر دقیقتر دیده میشوند.
حال تصور کنید که یک سیستم هوش مصنوعی اظهارات شاهدان را قبل از ارزیابی توسط مجریان قانون تجزیه و تحلیل کند. با استفاده از پردازش زبان طبیعی، زبان مورد استفاده هر شاهد را از منظری خنثی ارزیابی میکند که تحت تأثیر یک سوگیری بالقوه انسانی ناشی از اثر توجیهی ویژه قرار نمیگیرد. هوش مصنوعی همچنین میتواند امتیازات عددی را بر اساس احتمال دقت ارائه کند، و به محققان کمک میکند روی اظهاراتی تمرکز کنند که شانس بیشتری برای دقیق بودن دارند.
دیوید دوبولی، استادیار رهبری سازمانی و تجزیه و تحلیل اطلاعات در دانشکده بازرگانی لیدز، اخیراً مطالعهای را در مجله تحقیقات کاربردی در حافظه و شناخت انجام داده است که به بررسی این موضوع میپردازد که چگونه ابزارهای پیشرفته هوش مصنوعی میتوانند درک اظهارات شاهد را بهبود بخشند، سوگیری و تعصب را کاهش دهند.
دوبولی گفت هوش مصنوعی و پردازش زبان طبیعی می تواند بینش عمیق تری را در مورد قابلیت اطمینان شاهدان عینی ارائه دهد.
او توضیح داد: “تحلیل سنتی اساسی بوده است – فقط کلمات را می شمرد. اما با پیشرفت های اخیر در هوش مصنوعی، ما می توانیم اظهارات را به روشی بسیار پیچیده تر ارزیابی کنیم.”
این مطالعه توسط لورن کلسو، دانشجوی کارشناسی ارشد در گروه روانشناسی دانشگاه ویرجینیا و همچنین جسی گرابمن، استادیار روانشناسی در دانشگاه ایالتی نیومکزیکو، و چاد دادسون، استاد روانشناسی در دانشگاه ویرجینیا، انجام شد. تمرکز بر این است که چگونه هوش مصنوعی می تواند به اعضای هیئت منصفه و مجریان قانون کمک کند تا اطمینان و دقت شاهدان عینی را ارزیابی کنند.
دوبولی گفت: “فقط به این دلیل که کسی می گوید مطمئن است به این معنی نیست که حق با اوست. بدترین اشتباهات از جانب شاهدان بسیار مطمئنی است که در واقع اشتباه می کنند.”
در این مطالعه، 1010 شرکتکننده مجموعهای از شناساییهای شاهدان عینی را که هر کدام با یک بیانیه اطمینان همراه بود، ارزیابی کردند. شرکتکنندگان به چهار گروه تقسیم شدند: یکی از آنها هیچ کمکی از هوش مصنوعی دریافت نکرد، در حالی که سایرین با انواع مختلف پشتیبانی از هوش مصنوعی، از جمله پیشبینی در مورد دقت شناساییها و توضیحات گرافیکی، ارائه شدند. هر گروه دقت احتمالی شناسایی شاهدان عینی را بر اساس یک توجیه مشخص یا تشخیص ارزیابی کرد و به محققان این امکان را داد که تجزیه و تحلیل کنند که چگونه کمک هوش مصنوعی بر قضاوتهای آنها تأثیر گذاشته است.
نتایج نشان داد که کمک هوش مصنوعی به طور قابل توجهی سوگیری توجیه ویژه را در میان شرکتکنندگانی که هوش مصنوعی را مفید میدانستند کاهش داد. کسانی که هوش مصنوعی را بسیار مفید میدانستند، تمایل داشتند دقت هر دو عبارات مشخصه و تشخیص را به طور مشابه ارزیابی کنند و به طور موثر بر تعصب غلبه کنند. در مقابل، شرکتکنندگانی که هوش مصنوعی را سودمند نمیدانستند، به نشان دادن تعصب ادامه دادند.
در حالی که Dobolyi نسبت به اعتماد کور به هوش مصنوعی هشدار داد، او گفت که پتانسیل آن را برای حمایت از تصمیمات آگاهانه تر در زمینه های قانونی می بیند.
او گفت: «ما ابزارهایی میخواهیم که به مردم کمک کنند تا تصمیمهای بهتر و کمطرفانهتری بگیرند – اگر بتوانیم صحت آنها را تأیید کنیم.»
با پیشرفت تحقیقات، وی گفت که تاکید بر شفافیت در تصمیم گیری هوش مصنوعی مهم است.
او گفت: “ضروری است که ما بفهمیم چرا یک هوش مصنوعی توصیه می کند، به خصوص در موقعیت های پر خطر مانند شهادت شاهدان عینی.”