30 اکتبر 2024-توهم هوش مصنوعی-© shutterstock/Shutterstock AI Generator
موسسه کینگ برای هوش مصنوعی در مورد پیامدهای استفاده رو به رشد GenAI در آموزش و خطرات اطلاعات نادرست پنهان شده توسط نوشتار شیوا بحث می کند.
ادغام سریع هوش مصنوعی مولد (GenAI) در آموزش یک شمشیر دو لبه را ارائه می دهد. در حالی که پتانسیل آن برای شخصی سازی یادگیری و تقویت آموزش غیرقابل انکار است، نگرانی ها در مورد پیامدهای اخلاقی، دقت و آسیب پذیری دانشجویان در برابر اطلاعات نادرست تولید شده توسط هوش مصنوعی نیز در حال افزایش است.
این تفسیر به وضعیت فعلی دانش پیرامون GenAI در آموزش می پردازد و شکاف مهم در درک توانایی دانش آموزان برای تشخیص توهمات هوش مصنوعی را که در تحقیق ما به عنوان پاسخ های تولید شده از GenAI حاوی اطلاعات نادرست تعریف شده است، برجسته می کند.
یکی از نگرانیهای ویژه مربیان، پذیرش GenAI در ایجاد ارزیابیهای مؤثر و حفظ یکپارچگی تحصیلی است. نگرانی گستردهتر برای جامعه، تمایل GenAI برای تولید اطلاعات نادرست است که اغلب میتواند تحت نوشتههای منسجم و شیوا پنهان شود. در صورت شناسایی نشدن، تأیید نشده و اصلاح نشده، چنین اطلاعات نادرستی می توانند به طور سهوی مورد استفاده قرار گیرند یا در درجات مختلف خطر مورد سوء استفاده قرار گیرند.
در این مقاله، ما اولین آزمایش را برای بررسی اینکه آیا و چگونه دانشجویان در یک مدرسه تجاری برتر انگلستان میتوانند اطلاعات نادرست ایجاد شده توسط GenAI را که اغلب به عنوان توهمات هوش مصنوعی تعریف میشود، در یک زمینه ارزیابی پرمخاطره تشخیص دهند، پیشنهاد میکنیم. در حالی که ما مقاله خود را در زمینه آموزشی محدود می کنیم، این مقاله به تحقیقات در حال ظهور در مورد شناسایی ویژگی های کلیدی و عوامل اجتماعی-اقتصادی زیربنایی خوانندگان اخبار در تشخیص اطلاعات نادرست و اخبار جعلی بسیار مرتبط است.
تنظیمات ما موقعیتی را ارائه میکند که خوانندگان (دانشجویان) منابع و آموزش فراوان و همچنین علاقه خاصی برای بررسی و ارزیابی اطلاعات دارند مانند پاسخ AI به یک سؤال ارزیابی. هدف ما روشن کردن میزانی است که مدرسان دورههای مرتبط با اقتصاد و کسبوکار میتوانند عملکرد تحصیلی دانشجویان را با توجه به پیشرفتهای اخیر در GenAI و تنظیمات آزمون حضوری که باید اجتناب شود، ارزیابی کنند.
شواهد ما در مورد توانایی دانشجویان در تشخیص اطلاعات نادرست فراتر از پاسخهای منسجم و خوب از GenAI به کمک هزینه تحصیلی در آموزش و یادگیری در مورد سواد هوش مصنوعی در محیط آموزشی کمک میکند.
طیفی از نگرش ها
تحقیقات طیفی از نگرش ها را نسبت به GenAI در آموزش نشان می دهد. مطالعات بریتانیا، نروژ و هنگکنگ نشان میدهند که یک چشمانداز کلی خوشبینانه همراه با برخی ملاحظات در مورد دقت، حریم خصوصی، و ملاحظات اخلاقی وجود دارد. مانند ChatGPT غالب است.
جالب توجه است، مطالعات آمریکایی نشان می دهد که تفاوت های فردی به طور قابل توجهی بر ادراک GenAI تأثیر می گذارد، به طوری که دانشجویان اعتماد به نفس و انگیزه بالاتری را نشان می دهند که احتمال اعتماد و تعامل با این ابزارها بیشتر است. این یافته ها بر نیاز به یک رویکرد ظریف، متعادل کردن نوآوری با ملاحظات اخلاقی و مکانیسم های نظارتی قوی تأکید می کند .
خطرات توهم هوش مصنوعی
توهمات هوش مصنوعی شامل خروجی های گمراه کننده مختلفی است که توسط مدل های زبان بزرگ (LLM) ایجاد می شود و خطرات قابل توجهی را به همراه دارد. این پاسخ های ساختگی می توانند مبهم باشند و تفسیر را دشوار می کنند. علاوه بر این، سوگیریهای بالقوه ذاتی در دادههای آموزشی میتواند به طور ناخواسته توسط هوش مصنوعی بازتولید شود و به طور بالقوه نابرابریهای اجتماعی موجود را تشدید کند. علاوه بر این، اطلاعات پراکنده و متناقض تولید شده توسط LLM ها می تواند بر ایمنی آنلاین و اعتماد عمومی تأثیر منفی بگذارد.
کاهش خطرات: مداخله در مقابل احتیاط
دو رویکرد اصلی برای کاهش نگرانیهای مرتبط با هوش مصنوعی در آموزش وجود دارد: رویکرد مبتنی بر مداخله و رویکرد محتاطانهتر. مداخله شامل اجرای سیاست ها و ترویج بحث های باز در مورد استفاده از هوش مصنوعی، ترویج شفافیت و مسئولیت پذیری در میان ذینفعان است. علاوه بر این، بررسی داده های آموزشی برای اطمینان از یکپارچگی و قابلیت اطمینان خروجی های هوش مصنوعی بسیار مهم است. در مقابل، رویکرد محتاطانه از محدود کردن یا حتی خودداری از استفاده از ابزارهای GenAI به طور کلی حمایت می کند. در حالی که مداخله به دنبال مدیریت فعال خطرات است، رویکرد محتاطانه اجتناب کامل را در اولویت قرار می دهد و به طور بالقوه مانع از کاربردهای آموزشی کاربردی ارزشمند می شود.
شکاف دانش: درک آسیب پذیری دانشجویان
تحقیقات موجود در درجه اول بر مزایا و چالشهای ادغام GenAI متمرکز است و از شناسایی عوامل مؤثر بر توانایی دانشجویان برای تشخیص اطلاعات نادرست غفلت میکند. برای رفع این شکاف، تحقیقات ما در مدرسه کسب و کار کینگ از یک رویکرد چند جانبه برای ارزیابی توانایی دانشجویان در شناسایی توهمات هوش مصنوعی در ارزیابی اقتصادی پرمخاطره استفاده کرد.
طراحی ارزیابی
این ارزیابی به صورت استراتژیک پاسخ های تولید شده توسط هوش مصنوعی را در یک طرح گنجانده است یعنی سوال فرعی به ارزش 15% نمره ارزیابی. برای اطمینان از تمرکز بر دقت واقعی، دستورالعملهای صریح دانشجویان را به ارزیابی محتوای اقتصادسنجی پاسخ هوش مصنوعی، بدون احتساب ویژگیهای سبکی، هدایت کرد.
نظرسنجی پس از دوره
پس از ارزیابی، یک نظرسنجی پس از دوره به نگرش دانش آموزان نسبت به هوش مصنوعی عمیق تر پرداخت. این نظرسنجی از مقیاس لیکرت (1-4: کاملاً مخالفم تا کاملاً موافقم) در چهار زمینه کلیدی توهم هوش مصنوعی و سواد هوش مصنوعی استفاده کرد.
قرار گرفتن در معرض گروه
ما به طور تصادفی گروه دانشجویی را به دو گروه مساوی تقسیم کردیم. یک گروه اطلاعاتی در مورد میزان تشخیص کلی توهمات هوش مصنوعی در این دوره دریافت کردند، در حالی که گروه دیگر اطلاعاتی دریافت نکردند. این دستکاری به ما اجازه داد تا بررسی کنیم که چگونه قرار گرفتن دانشجو در معرض چنین اطلاعاتی ممکن است بر سطح اعتماد آنها در مورد تواناییهای تشخیص هوش مصنوعی تأثیر بگذارد.
یافته ها
یافته های اولیه ما یک تعامل جذاب بین مهارت های تحصیلی، تفکر انتقادی و اعتماد دانشجو را در زمینه تشخیص هوش مصنوعی نشان می دهد.
دانش در مقابل تفکر انتقادی: در حالی که عملکرد تحصیلی قوی در اقتصاد یک پیشبینیکننده مثبت برای تشخیص توهم GenAI است، مهارتهای کاربردی صرف دانش کمتر مؤثر به نظر میرسد. این نشان می دهد که تفکر انتقادی نقش مهمی در تشخیص اطلاعات نادرست واقعی از هوش مصنوعی ایفا می کند.
رویکرد محتاطانه و تفکر انتقادی: دانشجویانی که رویکردی محتاطانه نسبت به هوش مصنوعی، همراه با مهارتهای قوی تفکر انتقادی نشان میدهند، تواناییهای تشخیص برتر را نشان دادند. این امر اهمیت ایجاد شک و تردید سالم را هنگام مواجهه با اطلاعات تولید شده توسط هوش مصنوعی برجسته می کند.
نابرابری جنسیتی: یک یافته جالب، نابرابری جنسیتی مشاهده شده در توانایی تشخیص است که نیاز به بررسی بیشتر برای درک علل زمینه ای دارد.
اعتماد به نفس و عملکرد همتایان
دانشجویانی که بهطور تصادفی به گروه تقسیم میشوند و از توانایی ضعیف همسالان خود در شناسایی توهمات هوش مصنوعی مطلع میشوند، نسبت به هوش مصنوعی محتاطتر و منفیتر میشوند. مجموعه نتایج نشان میدهد که باید دانشجویان را از مواردی آگاه کرد که در آن هوش مصنوعی اطلاعات نادرستی مرتبط با موضوع را برای توسعه دیدگاههای انتقادی خود نسبت به هوش مصنوعی ارائه میدهد.
پیامدهای گسترده تر: فراخوانی برای اقدام
این آسیبپذیری پیامدهای مهمی برای یادگیری دانشآموز و یکپارچگی تحصیلی در آینده مبتنی بر هوش مصنوعی دارد. برای پرداختن به این مسئله حیاتی، ما یک رویکرد چند جانبه را پیشنهاد می کنیم:
مداخلات هدفمند
بر اساس تحقیقات خود، میتوانیم گروههای دانشجویی را که بیشتر در معرض اطلاعات غلط هوش مصنوعی هستند شناسایی کنیم. با درک عواملی مانند سواد دیجیتال و پیشینه اجتماعی-اقتصادی، میتوانیم مداخلات هدفمندی را برای تقویت مهارتهای تفکر انتقادی ایجاد کنیم و این دانشجویان را با ابزارهایی برای تشخیص واقعیت از داستان تجهیز کنیم.
طراحی ارزیابی برای عصر هوش مصنوعی
مربیان باید ارزیابی هایی را ایجاد کنند که به طور استراتژیک GenAI را برای ارزیابی توانایی دانش آموزان در ارزیابی انتقادی اطلاعات ادغام کند. این فراتر از شناسایی محتوای تولید شده توسط هوش مصنوعی است و به مهارت عمیق تر تجزیه و تحلیل صحت واقعی اطلاعات ارائه شده می پردازد.
ارتقای مهارت های تفکر انتقادی
یک پایه آموزشی قوی که بر مهارت های تفکر انتقادی تأکید دارد ضروری است. تجهیز دانشجویان به توانایی تجزیه و تحلیل منابع، شناسایی سوگیری ها و ارزیابی اعتبار اطلاعات در عصر هوش مصنوعی بسیار مهم است.
دسترسی عادلانه به منابع
بسیار مهم است که اطمینان حاصل شود که همه دانشجویان به منابع و دانش مورد نیاز برای پیشرفت در آینده ای مبتنی بر هوش مصنوعی دسترسی دارند. این شامل پرورش مهارتهای سواد دیجیتال و ارائه فرصتهایی برای توسعه تفکر انتقادی از طریق تمرینهای عملی است که شامل اطلاعات تولید شده توسط هوش مصنوعی است.
بحث های باز و شفافیت
تشویق بحث های باز در مورد محدودیت ها و دام های بالقوه هوش مصنوعی حیاتی است. با تقویت دیدگاههای دانشجویان آگاه و ترویج شفافیت در مورد استفاده از هوش مصنوعی در آموزش، میتوانیم دانشجویان را توانمند کنیم تا به کاربرانی مسئول و مصرفکنندگان آگاه اطلاعات تبدیل شوند.
با پرداختن به این حوزههای حیاتی، میتوانیم اطمینان حاصل کنیم که دانشجویان برای پیمایش پیچیدگیهای دنیای مبتنی بر هوش مصنوعی مجهز هستند. تحقیقات ما به عنوان سکوی پرشی برای بررسی بیشتر در مورد آسیب پذیری دانشجویان در برابر اطلاعات غلط هوش مصنوعی عمل می کند. با همکاری مشترک، مربیان، محققان و سیاست گذاران می توانند استراتژی های موثری برای آماده سازی دانش آموزان برای چالش ها و فرصت های پیش رو ایجاد کنند.
نتیجه گیری : ما شواهدی را در مورد ارتباط بین ویژگیهای دانشجویان و توانایی آنها در تشخیص توهمات هوش مصنوعی در یک محیط ارزیابی پرمخاطره ارائه میکنیم. از نظر آموزشی، ما یک طرح ارزیابی عملی برای گنجاندن GenAI در ارزیابی ارائه می کنیم و دانشجویان را در مرکز این تجربه یادگیری و ارزیابی قرار می دهیم.
به جای منصرف کردن فعالانه از استفاده از آن، با ارزیابی نحوه ارزیابی دانشجویان از پاسخهای هوش مصنوعی به یک سؤال با دقت انتخاب شده که میتواند به وضوح درک دانشجویان از مطالب موضوعی را آزمایش کند، ارزیابیها را تغییر میدهیم. سپس نتیجه نسبتاً شگفت انگیزی را در مورد خطر نشان می دهیم .