نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

2 آذر 1403 3:33 ق.ظ

الگوریتم‌های هوش مصنوعی آینده پتانسیل یادگیری مانند انسان‌ها را دارند

20 ژوئیه 2023 – توسط تاتیانا وودال، دانشگاه ایالتی اوهایو-اعتبار: دامنه عمومی Pixabay/CC0

نگه داشتن خاطرات می تواند برای ماشین ها به همان اندازه که برای انسان دشوار است دشوار باشد. مهندسان برق در دانشگاه ایالتی اوهایو برای درک اینکه چرا عوامل مصنوعی سوراخ هایی را در فرآیندهای شناختی خود ایجاد می کنند، تجزیه و تحلیل کرده اند که فرآیندی به نام “یادگیری مستمر” چقدر بر عملکرد کلی آنها تأثیر می گذارد.

یادگیری مستمر زمانی است که یک کامپیوتر آموزش داده می شود تا به طور مداوم دنباله ای از کارها را بیاموزد و از دانش انباشته شده از وظایف قدیمی برای یادگیری بهتر وظایف جدید استفاده کند.

با این حال، یکی از موانع اصلی که دانشمندان هنوز برای دستیابی به چنین مواردی باید بر آن غلبه کنند، یادگیری چگونگی دور زدن معادل یادگیری ماشینی از دست دادن حافظه است – فرآیندی که در عوامل هوش مصنوعی به عنوان “فراموشی فاجعه بار” شناخته می شود. نس شروف، محقق برجسته اوهایو و استاد علوم و مهندسی کامپیوتر در دانشگاه ایالتی اوهایو، گفت: از آنجایی که شبکه‌های عصبی مصنوعی برای انجام وظایف جدید یکی پس از دیگری آموزش می‌بینند، تمایل دارند اطلاعات به دست آمده از وظایف قبلی را از دست بدهند، موضوعی که می‌تواند با تکیه بیشتر و بیشتر جامعه به سیستم‌های هوش مصنوعی مشکل‌ساز شود.

شروف گفت: «از آنجایی که برنامه‌های رانندگی خودکار یا سایر سیستم‌های رباتیک چیزهای جدیدی آموزش داده می‌شوند، مهم است که درس‌هایی را که قبلاً برای ایمنی ما و آنها آموخته‌اند فراموش نکنند.» “تحقیق ما به پیچیدگی‌های یادگیری مداوم در این شبکه‌های عصبی مصنوعی می‌پردازد، و آنچه ما یافتیم بینش‌هایی است که شروع به پر کردن شکاف بین نحوه یادگیری ماشین و نحوه یادگیری انسان می‌کند.”

به گفته شروف، محققان دریافتند همانطور که افراد ممکن است در به یاد آوردن حقایق متضاد در مورد سناریوهای مشابه مشکل داشته باشند اما موقعیت‌های ذاتا متفاوت را به راحتی به خاطر بسپارند، شبکه‌های عصبی مصنوعی می‌توانند به جای کارهایی که ویژگی‌های مشابهی دارند، هنگام مواجهه با وظایف مختلف، اطلاعات را بهتر به خاطر بیاورند.

این تیم شامل محققین فوق دکتری ایالت اوهایو، Sen Lin و Peizhong Ju و پروفسورهای Yingbin Liang و Shroff، تحقیقات خود را اواخر این ماه در چهلمین کنفرانس بین المللی سالانه یادگیری ماشین در هونولولو، هاوایی، یک کنفرانس برجسته در یادگیری ماشین ارائه خواهند کرد.

در حالی که آموزش سیستم‌های مستقل برای نشان دادن این نوع یادگیری پویا و مادام‌العمر چالش‌برانگیز است، داشتن چنین قابلیت‌هایی به دانشمندان این امکان را می‌دهد که الگوریتم‌های یادگیری ماشینی را با سرعت بیشتری مقیاس‌بندی کنند و همچنین به راحتی آنها را برای مدیریت محیط‌های در حال تکامل و موقعیت‌های غیرمنتظره تطبیق دهند. اساساً هدف این سیستم ها این است که روزی از قابلیت های یادگیری انسان ها تقلید کنند.

الگوریتم‌های یادگیری ماشینی سنتی بر روی داده‌ها به یکباره آموزش داده می‌شوند، اما یافته‌های این تیم نشان داد که عواملی مانند شباهت کار، همبستگی‌های منفی و مثبت، و حتی ترتیبی که به یک الگوریتم آموزش داده می‌شود، در طول مدت زمانی که یک شبکه مصنوعی دانش خاصی را حفظ می‌کند.

به عنوان مثال، به گفته شروف، برای بهینه سازی حافظه الگوریتم، کارهای متفاوت باید در مراحل اولیه یادگیری مداوم آموزش داده شوند. این روش ظرفیت شبکه را برای اطلاعات جدید افزایش می‌دهد و توانایی آن را برای یادگیری کارهای مشابه بیشتر در ادامه خط بهبود می‌بخشد.

شروف گفت: کار آنها به ویژه مهم است زیرا درک شباهت‌های بین ماشین‌ها و مغز انسان می‌تواند راه را برای درک عمیق‌تر هوش مصنوعی هموار کند.

او گفت: “کار ما نوید دهنده عصر جدیدی از ماشین های هوشمند است که می توانند مانند همتایان انسانی خود یاد بگیرند و سازگار شوند.”

https://techxplore.com

آیا این نوشته برایتان مفید بود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *