11 دسامبر 2024 -شکاف تحقیق و نوآوری – نوشته گرگور مایدیچ
در عصر پس از حقیقت، دانشگاهیان باید گام بردارند و از قابلیت اطمینان اطلاعات وارد شده به مدلهای هوش مصنوعی اطمینان حاصل کنند
ما شاهد پیشرفت های قابل توجهی در شبکه های عصبی، مدل های کلان داده، تجزیه و تحلیل فشرده داده ها و یادگیری ماشین هستیم. در حالی که بسیاری از تحقیقات اساسی که این پیشرفتها را ممکن میسازد توسط منابع عمومی تامین میشود، کاربرد گسترده این فناوریها – مانند مدلهای هوش مصنوعی مولد مانند ChatGPT یا Bard – توسط شرکتهای خصوصی توسعه یافته و تجاریسازی شدهاند، که عمدتاً بر اساس سود به جای مردم خدا یا پیگیری جامعه آگاه هدایت میشوند..
این سوال اساسی را مطرح می کند که وقتی نهادهای خصوصی قدرتمند و ثروتمند بر نوآوری دیجیتال تسلط دارند، دانشگاه ها چه نقشی ایفا می کنند.
فناوریهای هوش مصنوعی مولد در حال حاضر تأثیر اجتماعی گستردهای داشته و خواهند داشت. بنابراین، درک چگونگی عملکرد این فناوری ها و آنچه که آنها تولید می کنند بسیار مهم است. فرض اصلی این فناوریها شامل تجزیه و تحلیل حجم وسیعی از اطلاعات برای یافتن الگوها و ایجاد خروجیهایی است که بر اساس الگوهایی که ماشینها از دادههای ورودی یاد میگیرند، به سؤالات، پرسشها یا خواستههای ما پاسخ میدهند.
با داده های ورودی کافی، این سیستم ها می توانند هر چیزی از کد کامپیوتری گرفته تا موسیقی پاپ، نقاشی و اشعار را تولید کنند. در حالی که این ابزارها می توانند دانش ما را افزایش دهند و به طور فزاینده ای توسط دانشجویان برای حمایت از مطالعاتشان استفاده می شود، در مورد نحوه استفاده از آنها و میزان اعتماد ما به خروجی های آنها احتیاط لازم است. مسئله مهم کیفیت و قابلیت اطمینان داده های مورد استفاده برای آموزش این سیستم ها است.
به طور سنتی – قبل از عصر دیجیتال و ظهور اینترنت – انتشار شامل اعتبارسنجی قوی بود. رسانههای اصلی در انتشار داستانهای تایید نشده، به استثنای نادری برای افشای اطلاعات در جهت منافع عمومی، تردید داشتند.
مقالات علمی که در ابتدا به عنوان مبادله اطلاعات بین دانشمندان منتشر می شد و نه به عنوان منبعی برای کسب اعتبار و بودجه، تحت بررسی دقیق همتایان قرار گرفت و اطلاعات قابل اعتماد در نظر گرفته شد. هر ادعایی در مقالات علمی باید توسط تحقیقات قبلی تأیید می شد که باید به درستی استناد می شد. بنابراین، کنترلی وجود داشت تا اطمینان حاصل شود که فقط مطالب واقعی و علمی معتبر منتشر می شد.
انقلاب دیجیتال این چشم انداز را به شدت متحول کرده است. امروزه، هر کسی میتواند هر چیزی را بنویسد و منتشر کند، و حتی غیرقابل قبولترین ایدهها نیز میتوانند جای خود را در مخزن وسیع دانش مکتوب بشر به صورت آنلاین پیدا کنند.
این ریشه مشکل صحت اطلاعاتی است که سیستمهای هوش مصنوعی روی آن آموزش داده شدهاند. همانطور که کیفیت یک غذای نهایی به کیفیت مواد مورد استفاده بستگی دارد، کیفیت اطلاعات تولید شده توسط سیستم های هوش مصنوعی نیز به صحت اطلاعات مورد استفاده برای آموزش این مدل ها بستگی دارد.
در این دوران به اصطلاح پسا حقیقت، که در آن این تصور که همه نظرات برابر هستند حاکم است و با توجه به پیشرفت های تکنولوژیکی که اجازه می دهد هر چیزی منتشر شود و بخشی از حوزه عمومی دانش بشری شود، ما با چالش ارزیابی کیفیت دادههای ورودی که مدلهای هوش مصنوعی مولد جمعآوری میکنند.
شرکتهای خصوصی معمولاً علاقهای ندارند و احتمالاً ظرفیت مرتبسازی این اطلاعات را ندارند. بنابراین، اگر میخواهیم مدلهای هوش مصنوعی مولد اطلاعات دقیقی را در آینده ارائه دهند، باید به این موضوع مهم بپردازیم و راهحلهای قابل اجرا را بررسی کنیم.
یکی از راهحلهای بالقوه میتواند شامل همکاری دانشگاهها برای ایجاد یک مدل هوش مصنوعی آکادمیک یا عمومی باشد که منحصراً بر مقالات علمی بررسی شده و سایر منابع قابل تأیید متکی باشد. ائتلافی از دانشگاههای اروپایی (یا حتی جهانی) میتوانند با کنترل دقیق منابع مورد استفاده برای آموزش، به ایجاد یک مدل هوش مصنوعی اخلاقی و قابل اعتماد بپیوندند.
چنین مدلی به عنوان یک ابزار ارزشمند هم برای عموم مردم و هم در جامعه دانشگاهی عمل می کند. چه بخواهیم و چه نخواهیم، از این ابزارها استفاده می شود و ناگزیر به ویژه در بین دانش آموزان فراگیرتر خواهد شد. به جای پرهیز از هوش مصنوعی، باید آن را برای خدمت به منافع عمومی و پیشبرد مأموریت های دانشگاه در آغوش بگیریم و اصلاح کنیم.
با این حال، در بحث از چنین ابزار عمومی مولد AI، بر اساس اطلاعات قابل تایید و اثبات شده، ما با یک سوال مهم دیگر در مورد انتشار علمی مواجه می شویم. در حالی که این موضوع به تنهایی یک بحث جامع را تضمین می کند، بسیاری موافقند که سیستم انتشار علمی عمیقاً ناقص است. تنها در سال 2023، 10000 مقاله علمی (1 از هر 500 مقاله منتشر شده) به دلیل سوءرفتار علمی پس گرفته شده است، تورم ناشران و مقالات علمی، ناشران علمی سود محور که نمایشگاه را اجرا می کنند (در بخشی که در حال حاضر سودآورترین بخش است. بخش های اقتصادی) و سیستم های پاداش دهنده تعداد انتشارات و شهرت مجله به جای کیفیت انتشارات فردی، واضح است که ما به تغییرات اساسی نیاز داریم.
حتی اگر آموزش هوش مصنوعی را به مقالات بررسی شده محدود کنیم، این نقص های سیستمی همچنان باقی می مانند. بنابراین، جامعه دانشگاهی باید به طور همزمان با این دو موضوع مرتبط به هم مقابله کند: ساخت مدلهای هوش مصنوعی قابل تأیید بر اساس انتشارات با کیفیت بالا و اصلاح سیستم انتشار علمی. پرداختن به این چالش ها برای بازگرداندن اعتماد به علم و تشویق جوامع به ارزش گذاری مجدد برای دانش واقعی حیاتی است.
دانشگاه ها باید هوش مصنوعی را پذیرفته و به توسعه آن به عنوان بخشی از حوزه عمومی برای پیشرفت بشریت و منافع جامعه کمک کنند. اگر ما از این امر خودداری کنیم، دیگران رهبری را به دست خواهند گرفت، احتمالاً با اثرات مضر، مشابه آنچه قبلاً در مورد رسانه های اجتماعی مشاهده کرده ایم، که اطلاعات نادرست را منتشر می کند، جامعه را قطبی می کند و بی اعتمادی به ارزش های اساسی اجتماعی مانند دموکراسی ایجاد می کند.
ما در زمان تغییرات عمیق اجتماعی زندگی میکنیم و دانشگاهها مسئولیت مهمی برای حفظ ارزشهای دموکراتیک، پرورش جوامع مبتنی بر دانش و تضمین احترام به حقوق بشر برای همه دارند. دانشگاهها بهعنوان نهادهایی که قرنها از تحولات اجتماعی را با ایجاد تعادل بین سنت و سازگاری تحمل کردهاند، باید به تکامل خود ادامه دهند. پذیرش ابزارهایی که توسط جمعیت گسترده تر به کار گرفته می شود – در حالی که اطمینان از کاربرد اخلاقی و سودمند آنها – ضروری است. با شکل دادن فعال به توسعه و استفاده از هوش مصنوعی، دانشگاه ها می توانند از دموکراسی محافظت کنند، از حقوق بشر حمایت کنند و در حفظ سیاره ما برای نسل های آینده سهیم باشند.
گرگور مایدیچ رئیس دانشگاه لیوبلیانا است.