نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

28 دی 1403 6:34 ب.ظ

دانشگاه ها باید هوش مصنوعی را بپذیرند و به توسعه آن کمک کنند

دانشگاه ها باید هوش مصنوعی را بپذیرند و به توسعه آن کمک کنند

11 دسامبر 2024 -شکاف تحقیق و نوآوری – نوشته گرگور مایدیچ

در عصر پس از حقیقت، دانشگاهیان باید گام بردارند و از قابلیت اطمینان اطلاعات وارد شده به مدل‌های هوش مصنوعی اطمینان حاصل کنند

ما شاهد پیشرفت های قابل توجهی در شبکه های عصبی، مدل های کلان داده، تجزیه و تحلیل فشرده داده ها و یادگیری ماشین هستیم. در حالی که بسیاری از تحقیقات اساسی که این پیشرفت‌ها را ممکن می‌سازد توسط منابع عمومی تامین می‌شود، کاربرد گسترده این فناوری‌ها – مانند مدل‌های هوش مصنوعی مولد مانند ChatGPT یا Bard – توسط شرکت‌های خصوصی توسعه یافته و تجاری‌سازی شده‌اند، که عمدتاً بر اساس سود به جای مردم خدا یا پیگیری جامعه آگاه هدایت می‌شوند..

این سوال اساسی را مطرح می کند که وقتی نهادهای خصوصی قدرتمند و ثروتمند بر نوآوری دیجیتال تسلط دارند، دانشگاه ها چه نقشی ایفا می کنند.

فناوری‌های هوش مصنوعی مولد در حال حاضر تأثیر اجتماعی گسترده‌ای داشته و خواهند داشت. بنابراین، درک چگونگی عملکرد این فناوری ها و آنچه که آنها تولید می کنند بسیار مهم است. فرض اصلی این فناوری‌ها شامل تجزیه و تحلیل حجم وسیعی از اطلاعات برای یافتن الگوها و ایجاد خروجی‌هایی است که بر اساس الگوهایی که ماشین‌ها از داده‌های ورودی یاد می‌گیرند، به سؤالات، پرسش‌ها یا خواسته‌های ما پاسخ می‌دهند.

با داده های ورودی کافی، این سیستم ها می توانند هر چیزی از کد کامپیوتری گرفته تا موسیقی پاپ، نقاشی و اشعار را تولید کنند. در حالی که این ابزارها می توانند دانش ما را افزایش دهند و به طور فزاینده ای توسط دانشجویان برای حمایت از مطالعاتشان استفاده می شود، در مورد نحوه استفاده از آنها و میزان اعتماد ما به خروجی های آنها احتیاط لازم است. مسئله مهم کیفیت و قابلیت اطمینان داده های مورد استفاده برای آموزش این سیستم ها است.

به طور سنتی – قبل از عصر دیجیتال و ظهور اینترنت – انتشار شامل اعتبارسنجی قوی بود. رسانه‌های اصلی در انتشار داستان‌های تایید نشده، به استثنای نادری برای افشای اطلاعات در جهت منافع عمومی، تردید داشتند.

مقالات علمی که در ابتدا به عنوان مبادله اطلاعات بین دانشمندان منتشر می شد و نه به عنوان منبعی برای کسب اعتبار و بودجه، تحت بررسی دقیق همتایان قرار گرفت و اطلاعات قابل اعتماد در نظر گرفته شد. هر ادعایی در مقالات علمی باید توسط تحقیقات قبلی تأیید می شد که باید به درستی استناد می شد. بنابراین، کنترلی وجود داشت تا اطمینان حاصل شود که فقط مطالب واقعی و علمی معتبر منتشر می شد.

انقلاب دیجیتال این چشم انداز را به شدت متحول کرده است. امروزه، هر کسی می‌تواند هر چیزی را بنویسد و منتشر کند، و حتی غیرقابل قبول‌ترین ایده‌ها نیز می‌توانند جای خود را در مخزن وسیع دانش مکتوب بشر به صورت آنلاین پیدا کنند.

این ریشه مشکل صحت اطلاعاتی است که سیستم‌های هوش مصنوعی روی آن آموزش داده شده‌اند. همانطور که کیفیت یک غذای نهایی به کیفیت مواد مورد استفاده بستگی دارد، کیفیت اطلاعات تولید شده توسط سیستم های هوش مصنوعی نیز به صحت اطلاعات مورد استفاده برای آموزش این مدل ها بستگی دارد.

در این دوران به اصطلاح پسا حقیقت، که در آن این تصور که همه نظرات برابر هستند حاکم است و با توجه به پیشرفت های تکنولوژیکی که اجازه می دهد هر چیزی منتشر شود و بخشی از حوزه عمومی دانش بشری شود، ما با چالش ارزیابی کیفیت داده‌های ورودی که مدل‌های هوش مصنوعی مولد جمع‌آوری می‌کنند.

شرکت‌های خصوصی معمولاً علاقه‌ای ندارند و احتمالاً ظرفیت مرتب‌سازی این اطلاعات را ندارند. بنابراین، اگر می‌خواهیم مدل‌های هوش مصنوعی مولد اطلاعات دقیقی را در آینده ارائه دهند، باید به این موضوع مهم بپردازیم و راه‌حل‌های قابل اجرا را بررسی کنیم.

یکی از راه‌حل‌های بالقوه می‌تواند شامل همکاری دانشگاه‌ها برای ایجاد یک مدل هوش مصنوعی آکادمیک یا عمومی باشد که منحصراً بر مقالات علمی بررسی شده و سایر منابع قابل تأیید متکی باشد. ائتلافی از دانشگاه‌های اروپایی (یا حتی جهانی) می‌توانند با کنترل دقیق منابع مورد استفاده برای آموزش، به ایجاد یک مدل هوش مصنوعی اخلاقی و قابل اعتماد بپیوندند.

چنین مدلی به عنوان یک ابزار ارزشمند هم برای عموم مردم و هم در جامعه دانشگاهی عمل می کند. چه بخواهیم و چه نخواهیم، ​​از این ابزارها استفاده می شود و ناگزیر به ویژه در بین دانش آموزان فراگیرتر خواهد شد. به جای پرهیز از هوش مصنوعی، باید آن را برای خدمت به منافع عمومی و پیشبرد مأموریت های دانشگاه در آغوش بگیریم و اصلاح کنیم.

با این حال، در بحث از چنین ابزار عمومی مولد AI، بر اساس اطلاعات قابل تایید و اثبات شده، ما با یک سوال مهم دیگر در مورد انتشار علمی مواجه می شویم. در حالی که این موضوع به تنهایی یک بحث جامع را تضمین می کند، بسیاری موافقند که سیستم انتشار علمی عمیقاً ناقص است. تنها در سال 2023، 10000 مقاله علمی (1 از هر 500 مقاله منتشر شده) به دلیل سوءرفتار علمی پس گرفته شده است، تورم ناشران و مقالات علمی، ناشران علمی سود محور که نمایشگاه را اجرا می کنند (در بخشی که در حال حاضر سودآورترین بخش است. بخش های اقتصادی) و سیستم های پاداش دهنده تعداد انتشارات و شهرت مجله به جای کیفیت انتشارات فردی، واضح است که ما به تغییرات اساسی نیاز داریم.

حتی اگر آموزش هوش مصنوعی را به مقالات بررسی شده محدود کنیم، این نقص های سیستمی همچنان باقی می مانند. بنابراین، جامعه دانشگاهی باید به طور همزمان با این دو موضوع مرتبط به هم مقابله کند: ساخت مدل‌های هوش مصنوعی قابل تأیید بر اساس انتشارات با کیفیت بالا و اصلاح سیستم انتشار علمی. پرداختن به این چالش ها برای بازگرداندن اعتماد به علم و تشویق جوامع به ارزش گذاری مجدد برای دانش واقعی حیاتی است.

دانشگاه ها باید هوش مصنوعی را پذیرفته و به توسعه آن به عنوان بخشی از حوزه عمومی برای پیشرفت بشریت و منافع جامعه کمک کنند. اگر ما از این امر خودداری کنیم، دیگران رهبری را به دست خواهند گرفت، احتمالاً با اثرات مضر، مشابه آنچه قبلاً در مورد رسانه های اجتماعی مشاهده کرده ایم، که اطلاعات نادرست را منتشر می کند، جامعه را قطبی می کند و بی اعتمادی به ارزش های اساسی اجتماعی مانند دموکراسی ایجاد می کند.

ما در زمان تغییرات عمیق اجتماعی زندگی می‌کنیم و دانشگاه‌ها مسئولیت مهمی برای حفظ ارزش‌های دموکراتیک، پرورش جوامع مبتنی بر دانش و تضمین احترام به حقوق بشر برای همه دارند. دانشگاه‌ها به‌عنوان نهادهایی که قرن‌ها از تحولات اجتماعی را با ایجاد تعادل بین سنت و سازگاری تحمل کرده‌اند، باید به تکامل خود ادامه دهند. پذیرش ابزارهایی که توسط جمعیت گسترده تر به کار گرفته می شود – در حالی که اطمینان از کاربرد اخلاقی و سودمند آنها – ضروری است. با شکل دادن فعال به توسعه و استفاده از هوش مصنوعی، دانشگاه ها می توانند از دموکراسی محافظت کنند، از حقوق بشر حمایت کنند و در حفظ سیاره ما برای نسل های آینده سهیم باشند.

گرگور مایدیچ رئیس دانشگاه لیوبلیانا است.

https://sciencebusiness.net

آیا این نوشته برایتان مفید بود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *