نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

6 آذر 1403 9:09 ق.ظ

آیا ما برای سایه توهم هوش مصنوعی آماده هستیم؟

آیا ما برای سایه توهم هوش مصنوعی آماده هستیم؟

30 اکتبر 2024-توهم هوش مصنوعی-© shutterstock/Shutterstock AI Generator

موسسه کینگ برای هوش مصنوعی در مورد پیامدهای استفاده رو به رشد GenAI در آموزش و خطرات اطلاعات نادرست پنهان شده توسط نوشتار شیوا بحث می کند.

ادغام سریع هوش مصنوعی مولد (GenAI) در آموزش یک شمشیر دو لبه را ارائه می دهد. در حالی که پتانسیل آن برای شخصی سازی یادگیری و تقویت آموزش غیرقابل انکار است، نگرانی ها در مورد پیامدهای اخلاقی، دقت و آسیب پذیری دانشجویان در برابر اطلاعات نادرست تولید شده توسط هوش مصنوعی نیز در حال افزایش است.

این تفسیر به وضعیت فعلی دانش پیرامون GenAI در آموزش می پردازد و شکاف مهم در درک توانایی دانش آموزان برای تشخیص توهمات هوش مصنوعی را که در تحقیق ما به عنوان پاسخ های تولید شده از GenAI حاوی اطلاعات نادرست تعریف شده است، برجسته می کند.

یکی از نگرانی‌های ویژه مربیان، پذیرش GenAI در ایجاد ارزیابی‌های مؤثر و حفظ یکپارچگی تحصیلی است. نگرانی گسترده‌تر برای جامعه، تمایل GenAI برای تولید اطلاعات نادرست است که اغلب می‌تواند تحت نوشته‌های منسجم و شیوا پنهان شود. در صورت شناسایی نشدن، تأیید نشده و اصلاح نشده، چنین اطلاعات نادرستی می توانند به طور سهوی مورد استفاده قرار گیرند یا در درجات مختلف خطر مورد سوء استفاده قرار گیرند.

در این مقاله، ما اولین آزمایش را برای بررسی اینکه آیا و چگونه دانش‌جویان در یک مدرسه تجاری برتر انگلستان می‌توانند اطلاعات نادرست ایجاد شده توسط GenAI را که اغلب به عنوان توهمات هوش مصنوعی تعریف می‌شود، در یک زمینه ارزیابی پرمخاطره تشخیص دهند، پیشنهاد می‌کنیم. در حالی که ما مقاله خود را در زمینه آموزشی محدود می کنیم، این مقاله به تحقیقات در حال ظهور در مورد شناسایی ویژگی های کلیدی و عوامل اجتماعی-اقتصادی زیربنایی خوانندگان اخبار در تشخیص اطلاعات نادرست و اخبار جعلی بسیار مرتبط است.

تنظیمات ما موقعیتی را ارائه می‌کند که خوانندگان (دانشجویان) منابع و آموزش فراوان و همچنین علاقه خاصی برای بررسی و ارزیابی اطلاعات دارند مانند  پاسخ AI به یک سؤال ارزیابی. هدف ما روشن کردن میزانی است که مدرسان دوره‌های مرتبط با اقتصاد و کسب‌وکار می‌توانند عملکرد تحصیلی دانشجویان را با توجه به پیشرفت‌های اخیر در GenAI و تنظیمات آزمون حضوری که باید اجتناب شود، ارزیابی کنند.

شواهد ما در مورد توانایی دانشجویان در تشخیص اطلاعات نادرست فراتر از پاسخ‌های منسجم و خوب از GenAI به کمک هزینه تحصیلی در آموزش و یادگیری در مورد سواد هوش مصنوعی در محیط آموزشی کمک می‌کند.

طیفی از نگرش ها

تحقیقات طیفی از نگرش ها را نسبت به GenAI در آموزش نشان می دهد. مطالعات بریتانیا، نروژ و هنگ‌کنگ نشان می‌دهند که یک چشم‌انداز کلی خوش‌بینانه همراه با برخی ملاحظات در مورد دقت، حریم خصوصی، و ملاحظات اخلاقی وجود دارد. مانند ChatGPT غالب است.

جالب توجه است، مطالعات آمریکایی نشان می دهد که تفاوت های فردی به طور قابل توجهی بر ادراک GenAI تأثیر می گذارد، به طوری که دانشجویان اعتماد به نفس و انگیزه بالاتری را نشان می دهند که احتمال اعتماد و تعامل با این ابزارها بیشتر است. این یافته ها بر نیاز به یک رویکرد ظریف، متعادل کردن نوآوری با ملاحظات اخلاقی و مکانیسم های نظارتی قوی تأکید می کند .

خطرات توهم هوش مصنوعی

توهمات هوش مصنوعی شامل خروجی های گمراه کننده مختلفی است که توسط مدل های زبان بزرگ (LLM) ایجاد می شود و خطرات قابل توجهی را به همراه دارد. این پاسخ های ساختگی می توانند مبهم باشند و تفسیر را دشوار می کنند. علاوه بر این، سوگیری‌های بالقوه ذاتی در داده‌های آموزشی می‌تواند به طور ناخواسته توسط هوش مصنوعی بازتولید شود و به طور بالقوه نابرابری‌های اجتماعی موجود را تشدید کند. علاوه بر این، اطلاعات پراکنده و متناقض تولید شده توسط LLM ها می تواند بر ایمنی آنلاین و اعتماد عمومی تأثیر منفی بگذارد.

کاهش خطرات: مداخله در مقابل احتیاط

دو رویکرد اصلی برای کاهش نگرانی‌های مرتبط با هوش مصنوعی در آموزش وجود دارد: رویکرد مبتنی بر مداخله و رویکرد محتاطانه‌تر. مداخله شامل اجرای سیاست ها و ترویج بحث های باز در مورد استفاده از هوش مصنوعی، ترویج شفافیت و مسئولیت پذیری در میان ذینفعان است. علاوه بر این، بررسی داده های آموزشی برای اطمینان از یکپارچگی و قابلیت اطمینان خروجی های هوش مصنوعی بسیار مهم است. در مقابل، رویکرد محتاطانه از محدود کردن یا حتی خودداری از استفاده از ابزارهای GenAI به طور کلی حمایت می کند. در حالی که مداخله به دنبال مدیریت فعال خطرات است، رویکرد محتاطانه اجتناب کامل را در اولویت قرار می دهد و به طور بالقوه مانع از کاربردهای آموزشی کاربردی ارزشمند می شود.

شکاف دانش: درک آسیب پذیری دانشجویان

تحقیقات موجود در درجه اول بر مزایا و چالش‌های ادغام GenAI متمرکز است و از شناسایی عوامل مؤثر بر توانایی دانشجویان برای تشخیص اطلاعات نادرست غفلت می‌کند. برای رفع این شکاف، تحقیقات ما در مدرسه کسب و کار کینگ از یک رویکرد چند جانبه برای ارزیابی توانایی دانشجویان در شناسایی توهمات هوش مصنوعی در ارزیابی اقتصادی پرمخاطره استفاده کرد.

طراحی ارزیابی

این ارزیابی به صورت استراتژیک پاسخ های تولید شده توسط هوش مصنوعی را در یک طرح گنجانده است یعنی سوال فرعی به ارزش 15% نمره ارزیابی. برای اطمینان از تمرکز بر دقت واقعی، دستورالعمل‌های صریح دانشجویان را به ارزیابی محتوای اقتصادسنجی پاسخ هوش مصنوعی، بدون احتساب ویژگی‌های سبکی، هدایت کرد.

نظرسنجی پس از دوره

پس از ارزیابی، یک نظرسنجی پس از دوره به نگرش دانش آموزان نسبت به هوش مصنوعی عمیق تر پرداخت. این نظرسنجی از مقیاس لیکرت (1-4: کاملاً مخالفم تا کاملاً موافقم) در چهار زمینه کلیدی توهم هوش مصنوعی و سواد هوش مصنوعی استفاده کرد.

قرار گرفتن در معرض گروه

ما به طور تصادفی گروه دانشجویی را به دو گروه مساوی تقسیم کردیم. یک گروه اطلاعاتی در مورد میزان تشخیص کلی توهمات هوش مصنوعی در این دوره دریافت کردند، در حالی که گروه دیگر اطلاعاتی دریافت نکردند. این دستکاری به ما اجازه داد تا بررسی کنیم که چگونه قرار گرفتن دانش‌جو در معرض چنین اطلاعاتی ممکن است بر سطح اعتماد آنها در مورد توانایی‌های تشخیص هوش مصنوعی تأثیر بگذارد.

یافته ها

یافته های اولیه ما یک تعامل جذاب بین مهارت های تحصیلی، تفکر انتقادی و اعتماد دانشجو را در زمینه تشخیص هوش مصنوعی نشان می دهد.

 دانش در مقابل تفکر انتقادی: در حالی که عملکرد تحصیلی قوی در اقتصاد یک پیش‌بینی‌کننده مثبت برای تشخیص توهم GenAI است، مهارت‌های کاربردی صرف دانش کمتر مؤثر به نظر می‌رسد. این نشان می دهد که تفکر انتقادی نقش مهمی در تشخیص اطلاعات نادرست واقعی از هوش مصنوعی ایفا می کند.

 رویکرد محتاطانه و تفکر انتقادی: دانشجویانی که رویکردی محتاطانه نسبت به هوش مصنوعی، همراه با مهارت‌های قوی تفکر انتقادی نشان می‌دهند، توانایی‌های تشخیص برتر را نشان دادند. این امر اهمیت ایجاد شک و تردید سالم را هنگام مواجهه با اطلاعات تولید شده توسط هوش مصنوعی برجسته می کند.

 نابرابری جنسیتی: یک یافته جالب، نابرابری جنسیتی مشاهده شده در توانایی تشخیص است که نیاز به بررسی بیشتر برای درک علل زمینه ای دارد.

اعتماد به نفس و عملکرد همتایان

دانشجویانی که به‌طور تصادفی به گروه تقسیم می‌شوند و از توانایی ضعیف همسالان خود در شناسایی توهمات هوش مصنوعی مطلع می‌شوند، نسبت به هوش مصنوعی محتاط‌تر و منفی‌تر می‌شوند. مجموعه نتایج نشان می‌دهد که باید دانشجویان را از مواردی آگاه کرد که در آن هوش مصنوعی اطلاعات نادرستی مرتبط با موضوع را برای توسعه دیدگاه‌های انتقادی خود نسبت به هوش مصنوعی ارائه می‌دهد.

پیامدهای گسترده تر: فراخوانی برای اقدام

این آسیب‌پذیری پیامدهای مهمی برای یادگیری دانش‌آموز و یکپارچگی تحصیلی در آینده مبتنی بر هوش مصنوعی دارد. برای پرداختن به این مسئله حیاتی، ما یک رویکرد چند جانبه را پیشنهاد می کنیم:

مداخلات هدفمند

بر اساس تحقیقات خود، می‌توانیم گروه‌های دانشجویی را که بیشتر در معرض اطلاعات غلط هوش مصنوعی هستند شناسایی کنیم. با درک عواملی مانند سواد دیجیتال و پیشینه اجتماعی-اقتصادی، می‌توانیم مداخلات هدفمندی را برای تقویت مهارت‌های تفکر انتقادی ایجاد کنیم و این دانشجویان را با ابزارهایی برای تشخیص واقعیت از داستان تجهیز کنیم.

طراحی ارزیابی برای عصر هوش مصنوعی

مربیان باید ارزیابی هایی را ایجاد کنند که به طور استراتژیک GenAI را برای ارزیابی توانایی دانش آموزان در ارزیابی انتقادی اطلاعات ادغام کند. این فراتر از شناسایی محتوای تولید شده توسط هوش مصنوعی است و به مهارت عمیق تر تجزیه و تحلیل صحت واقعی اطلاعات ارائه شده می پردازد.

ارتقای مهارت های تفکر انتقادی

یک پایه آموزشی قوی که بر مهارت های تفکر انتقادی تأکید دارد ضروری است. تجهیز دانشجویان به توانایی تجزیه و تحلیل منابع، شناسایی سوگیری ها و ارزیابی اعتبار اطلاعات در عصر هوش مصنوعی بسیار مهم است.

دسترسی عادلانه به منابع

بسیار مهم است که اطمینان حاصل شود که همه دانشجویان به منابع و دانش مورد نیاز برای پیشرفت در آینده ای مبتنی بر هوش مصنوعی دسترسی دارند. این شامل پرورش مهارت‌های سواد دیجیتال و ارائه فرصت‌هایی برای توسعه تفکر انتقادی از طریق تمرین‌های عملی است که شامل اطلاعات تولید شده توسط هوش مصنوعی است.

بحث های باز و شفافیت

تشویق بحث های باز در مورد محدودیت ها و دام های بالقوه هوش مصنوعی حیاتی است. با تقویت دیدگاه‌های دانشجویان آگاه و ترویج شفافیت در مورد استفاده از هوش مصنوعی در آموزش، می‌توانیم دانشجویان را توانمند کنیم تا به کاربرانی مسئول و مصرف‌کنندگان آگاه اطلاعات تبدیل شوند.

با پرداختن به این حوزه‌های حیاتی، می‌توانیم اطمینان حاصل کنیم که دانشجویان برای پیمایش پیچیدگی‌های دنیای مبتنی بر هوش مصنوعی مجهز هستند. تحقیقات ما به عنوان سکوی پرشی برای بررسی بیشتر در مورد آسیب پذیری دانشجویان در برابر اطلاعات غلط هوش مصنوعی عمل می کند. با همکاری مشترک، مربیان، محققان و سیاست گذاران می توانند استراتژی های موثری برای آماده سازی دانش آموزان برای چالش ها و فرصت های پیش رو ایجاد کنند.

نتیجه گیری : ما شواهدی را در مورد ارتباط بین ویژگی‌های دانشجویان و توانایی آنها در تشخیص توهمات هوش مصنوعی در یک محیط ارزیابی پرمخاطره ارائه می‌کنیم. از نظر آموزشی، ما یک طرح ارزیابی عملی برای گنجاندن GenAI در ارزیابی ارائه می کنیم و دانشجویان را در مرکز این تجربه یادگیری و ارزیابی قرار می دهیم.

به جای منصرف کردن فعالانه از استفاده از آن، با ارزیابی نحوه ارزیابی دانشجویان از پاسخ‌های هوش مصنوعی به یک سؤال با دقت انتخاب شده که می‌تواند به وضوح درک دانشجویان از مطالب موضوعی را آزمایش کند، ارزیابی‌ها را تغییر می‌دهیم. سپس نتیجه نسبتاً شگفت انگیزی را در مورد خطر نشان می دهیم .

آیا این نوشته برایتان مفید بود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *