
۲۱ آگوست ۲۰۲۵ – نوشتهی دیوید متیوز – عکسها: امیلیانو ویتوریوسی / Unsplash
در حالی که پیشرفتها ابزارهای پیشرفتهای مانند AlphaFold را تولید کردهاند، بعید است که هوش مصنوعی انقلابی باشد و ممکن است دانشمندان را در مقالات بیکیفیت غرق کند.
طبق ارائههای کنفرانسی که ماههای گذشته برگزار شد و در مورد تأثیر این فناوری بر تحقیقات بحث کرد، هوش مصنوعی ممکن است در برخی شرایط برای دانشمندان مفید باشد، اما بعید است که این شغل را متحول کند.
در کنفرانس Metascience 2025، یک گردهمایی بزرگ در لندن برای بحث در مورد نحوهی انجام تحقیقات، هوش مصنوعی در علم یکی از داغترین موضوعات بود، اما در کل، انتظارات تعدیل شده است. برخی حتی نگرانند که هوش مصنوعی مولد بتواند موجی از هرزنامههای علمی ایجاد کند، محققان را با مقالات حتی بیشتر غرق کند و یافتههای واقعاً جدید را دفن کند.
مت کلنسی، متخصص علم و نوآوری در موسسه غیرانتفاعی Open Philanthropy، گفت: «موج اخیر پیشرفتهای هوش مصنوعی ابزارهای جدیدی را به ارمغان آورده است، اما لزوماً به معنای تغییر اساسی در معنای دانشمند بودن نیست.
او به نمایندگان گفت: «علم مدتهاست که ابزارهای جدیدی را ادغام کرده است که زمینههای جدیدی را برای مطالعه و انواع جدیدی از دادهها باز میکنند.»
ظهور مدلهای زبانی بزرگ (LLM)، پایه ابزارهای محبوبی مانند ChatGPT، و نرمافزارهای اختصاصیتری مانند AlphaFold که ساختارهای پروتئین را از توالی اسیدهای آمینه آنها پیشبینی میکنند، برخی را امیدوار کرده است که هوش مصنوعی بتواند فرضیههایی تولید کند، یافتهها را در تحقیقات محاسباتی تکرار کند یا ادبیات موجود را خلاصه کند.
در 19 آگوست، اکاترینا زاهاریوا، کمیسر تحقیقات اتحادیه اروپا، گفت که «تحول تحقیقات» توسط هوش مصنوعی «چشمگیر» است و قول داد که «به زودی» یک استراتژی هوش مصنوعی در علم ارائه شود. در سال ۲۰۲۳، کمیسیون اروپا یک واحد اختصاصی هوش مصنوعی در علوم تأسیس کرد و اوایل امسال، ۱۵ مطالعه موردی منتشر کرد که استدلال میکردند هوش مصنوعی سرعت اکتشاف در علوم زیستی را افزایش میدهد.
با این حال، بحث در مورد هوش مصنوعی در علم در بحبوحه تردیدهای فزاینده در مورد مفید بودن آن در تجارت مطرح میشود که باعث فروش سهام فناوری در ۲۰ آگوست شد. یک نظرسنجی از شرکتها توسط موسسه فناوری ماساچوست در ماه ژوئیه نشان داد که «۹۵٪ از سازمانها هیچ سودی» از هوش مصنوعی مولد دریافت نمیکنند.
در همین حال، برخی از روسای شرکتهای هوش مصنوعی ادعاهایی مطرح کردهاند که منتقدان آنها را به طرز مضحکی اغراقآمیز میدانند. به عنوان مثال، دمیس هاسابیس، مدیر اجرایی گوگل دیپمایند و خالق آلفافولد، اوایل این ماه اظهار داشت که «ما میتوانیم با کمک هوش مصنوعی […] شاید ظرف یک دهه آینده یا بیشتر، همه بیماریها را درمان کنیم.»
هوش مصنوعی چیز جدیدی نیست
ایولیا جورجسکو، مدیر علوم و نوآوری در موسسه فیزیک بریتانیا، در این کنفرانس گفت: با وجود هیجان ناشی از ابزارهای جدید مانند LLM و AlphaFold، تاریخچه هوش مصنوعی در علم در واقع به بیش از نیم قرن پیش برمیگردد.
او گفت: “بیشتر مردم فکر میکنند که این موضوع در دهه 2020 با AlphaGo و AlphaFold آغاز میشود.” اما تاریخچه هوش مصنوعی در علم که او در کنفرانس ارائه داد، به ابزاری در سال 1956 برای اثبات قضایا برمیگردد.
او گفت استفاده از یادگیری ماشینی، مترادف با آنچه امروزه به عنوان هوش مصنوعی تعریف میشود، در دهه 1990 به طور گسترده در فیزیک برای کارهایی مانند تشخیص الگو مورد استفاده قرار گرفت. جورجسکو گفت که یادگیری ماشینی همچنین برای تجزیه و تحلیل دادههایی که منجر به کشف بوزون هیگز شد، استفاده شد که در سال 2012 به صورت تجربی تأیید شد.
پاسخگویی
اگرچه کلنسی انتظار تحولات بزرگی را ندارد، اما در کنفرانس گفت که ابزارهای هوش مصنوعی ممکن است وظایف خودکارتری را که دانشمندان در حال حاضر باید انجام دهند، مانند جستجو و خلاصه کردن متون موجود، کاهش دهند و آنها را برای سایر بخشهای کار، مانند توضیح کارشان به سیاستگذاران، آزاد کنند.
با این حال، دانشگاهیان هنوز هم ممکن است تمایلی به واگذاری وظایف به ابزارهای هوش مصنوعی نداشته باشند، زیرا آنها همچنان در قبال کار خود پاسخگو هستند. کلنسی گفت: “من باید نام خود را روی این مقاله بنویسم. من باید واقعاً به نتایجی که از این دستگاه بیرون میآید اعتماد کنم.”
در واقع، هیئت منصفه هنوز در مورد ابزارهای هوش مصنوعی که ادعا میکنند میتوانند متون علمی موجود را خلاصه کنند، بحث میکند.
نشریه روزنامهنگاری کلمبیا اخیراً به روزنامهنگاران علمی هشدار داد که نتایج حاصل از پنج ابزار بررسی متون که آزمایش کرده است، “ناامیدکننده” و در برخی موارد “نگرانکننده” بوده است. این ابزارها مقالات کاملاً متفاوتی را از متون استخراج کردند، در مورد اجماع علمی اختلاف نظر داشتند و وقتی چند روز بعد از همان سؤال پرسیده شد، نتایج متفاوتی را ارائه دادند.
آلفافولد
آلفافولد مسلماً بزرگترین دستاورد علمی از پیشرفتهای اخیر در هوش مصنوعی است، به طوری که هاسابیس سال گذشته به خاطر اختراع آن، بخشی از جایزه نوبل شیمی را از آن خود کرد.
آنا کویونیمی، رئیس شتابدهنده تأثیرگذار دیپمایند، در این کنفرانس گفت: تا زمان انتشار آن، محققان حدود ۲۰۰۰۰۰ ساختار پروتئین را رمزگشایی کرده بودند. او گفت: «این یک فرآیند بسیار زمانبر بود.» اما آلفافولد موفق به شکستن ساختار ۲۰۰ میلیون پروتئین شده است و تاکنون بیش از سه میلیون محقق از این اکتشافات در کار خود استفاده میکنند.
کویونیمی اذعان کرد که هوش مصنوعی به هیچ وجه قادر به کمک به همه مشکلات علمی نیست. او گفت: “مطمئنم که همه شما داستانهایی دارید که در آنها یک ابتکار هوش مصنوعی چیز زیادی به آن اضافه نکرده است.”
او گفت محققان به “دادههای خوب برای آموزش مدلهای خود” نیاز دارند، زیرا آلفافولد به 200000 ساختار پروتئینی که قبلاً توسط دانشمندان رمزگشایی شده بود، متکی است. او گفت: “این واقعیت که ما توانستیم آلفافولد را توسعه دهیم، [به دلیل] کار همه زیستشناسان ساختاری در طول بیش از 50 سال بود.”
روال را حذف کنیم؟
سابینا لئونلی، مورخ و فیلسوف علم و فناوری در دانشگاه فنی مونیخ، گفت: محققان باید در مورد واگذاری آنچه که به نظر میرسد کار علمی “روتین” است به هوش مصنوعی محتاط باشند.
او در این کنفرانس گفت: «آنچه که به عنوان یک فعالیت روتین دیده میشود، در واقع به منبعی برای کشف تبدیل میشود و برعکس.» لئونلی گفت، روزالیند فرانکلین اولین کسی بود که ساختار DNA را هنگام کار بر روی «مسائل کریستالوگرافی ظاهراً بسیار خستهکننده» تصور کرد.او افزود، در دانشگاهها نیز «تمایل به دست کم گرفتن مداوم هزینهها، اهمیت و خواستههای بسیار بالای اعتبارسنجی و نگهداری مدلهای هوش مصنوعی» وجود دارد.
متقاعد نشده
مومیتا کولی، تحلیلگر تحقیقاتی در موسسه علوم هند در بنگلور، که نظرسنجی از محققان این کشور را ارائه داد، گفت: در هند، تنها اقلیت کوچکی از دانشمندان از مدلهای زبانی بزرگ استفاده میکنند.
او گفت: «آنها هنوز واقعاً متقاعد نشدهاند که ما در دورانی هستیم که هوش مصنوعی علم را هدایت میکند. یکی از نگرانیها هزینه است. اگرچه در حال حاضر نسخههای رایگان LLM وجود دارد، اما «شاید این مدلها فردا بسیار گران شوند.» او گفت: «نسخههای حرفهای همه این مدلها […] را واقعاً نمیتوانیم از عهده آن برآییم.»
او گفت، یک استثنا این است که محققان هندی به طور گسترده از LLMها برای کمک به بهبود نوشتههای خود استفاده میکنند و این میتواند برای دانشگاهیانی که زبان اولشان انگلیسی نیست، مزیت بزرگی باشد.
اما او گفت، سیاستهای مجلات که استفاده از هوش مصنوعی در نوشتن را ممنوع میکند، به این معنی است که این یک “فرصت از دست رفته” برای برابری زمین بازی با انگلیسی زبانان بومی است.
با این حال، در اوایل سال جاری، محققان چینی تحلیلی از چگونگی تغییر نوشتار دانشگاهی توسط LLMها انجام دادند و به این نتیجه رسیدند که این ابزارها باعث “کاهش قابل توجه انسجام و خوانایی” در چکیدههای پیش از چاپ شدهاند.
هرزنامه علمی؟
در نهایت، در کنفرانس نگرانیهایی مبنی بر استفاده از LLMها برای تولید تعداد فزایندهای از مقالات دانشگاهی، چه با کمک به دانشگاهیان برای نوشتن بیشتر، یا با تولید جعلی مقالات جعلی، مطرح شد.
خطر این است که این امر میتواند محققانی را که در حال حاضر در تعداد فزایندهای از مقالات غرق شدهاند، بیشتر تحت فشار قرار دهد. برخی از محققان هشدار دادهاند که مقالات جعلی تولید شده توسط هوش مصنوعی میتواند باعث “بحران وجودی” برای تحقیقات شود.
کولی گفت: “محتوای بسیار زیادی وجود خواهد داشت که هیچ ارزشی ندارد.” «احتمالاً اینها فضا را شلوغ میکنند و ایدههای خوب به اندازه کافی دیده نمیشوند.»
لیودمیلا زاوولوکینا، استاد نوآوری دیجیتال در دانشگاه لوزان، اوایل این ماه در لینکدین نوشت: «این هفته چهار مقاله در گوگل اسکالر پیدا کردم که توسط من و همکارانم نوشته شده بودند. البته ما آنها را ننوشته بودیم. آنها ارجاعات جعلی تولید شده توسط هوش مصنوعی بودند.»