29 ژوئیه 2024-مصرف انرژی هوش مصنوعی-عکس های سهام © shutterstock/KT
محققان دانشگاه مینهسوتا دستگاه سختافزاری پیشرفتهای ساختهاند که میتواند مصرف انرژی هوش مصنوعی را به میزان چشمگیری حداقل تاهزار برابر کاهش دهد.این پیشرفت نشان دهنده یک جهش به جلو در تلاش برای کاربردهای هوش مصنوعی با انرژی کارآمدتر است.
با رواج روزافزون کاربردهای هوش مصنوعی، نیاز مبرمی به افزایش بهره وری انرژی بدون به خطر انداختن عملکرد یا افزایش هزینه ها وجود دارد.فرآیندهای سنتی هوش مصنوعی با انتقال مداوم داده ها بین منطق (پردازش) و حافظه (ذخیره سازی) مقادیر زیادی انرژی مصرف می کنند.
مدل جدید دانشگاه مینهسوتا، به نام حافظه با دسترسی تصادفی محاسباتی (CRAM)، با نگهداری دادهها در حافظه برای پردازش، به این مشکل میپردازد.
یانگ لو، محقق فوق دکتری در دپارتمان مهندسی برق و کامپیوتر و توضیح داد: «این کار اولین نمایش آزمایشی CRAM است، که در آن دادهها میتوانند به طور کامل در آرایه حافظه پردازش شوند، بدون نیاز به خروج از شبکهای که رایانه اطلاعات را در آن ذخیره میکند».
آژانس بینالمللی انرژی (IEA) پیشبینی میکند که مصرف انرژی هوش مصنوعی از 460 تراوات ساعت (TWh) در سال 2022 به 1000 تراوات ساعت در سال 2026 دوبرابر خواهد شد که با کل مصرف برق ژاپن قابل مقایسه است.
شتابدهندههای استنتاج یادگیری ماشین مبتنی بر CRAM میتوانند تا 1000 برابر به بهبود انرژی دست یابند، در حالی که برخی از برنامهها در مقایسه با روشهای سنتی 2500 و 1700 برابر صرفهجویی در مصرف انرژی دارند.
جیان پینگ وانگ، نویسنده ارشد مقاله و استاد برجسته مک نایت در دانشگاه مینهسوتا، میگوید: «مفهوم اولیه ما برای استفاده مستقیم از سلولهای حافظه برای محاسبات 20 سال پیش احمقانه تلقی میشد.تیم بین رشته ای متشکل از کارشناسان فیزیک، علم مواد، علوم کامپیوتر و مهندسی، این فناوری را از سال 2003 توسعه داده است.
این تحقیق بر اساس کار ثبت شده در اتصالات تونل مغناطیسی (MTJs)، دستگاه های نانوساختار مورد استفاده در هارد دیسک ها، حسگرها و سایر سیستم های میکروالکترونیک، از جمله حافظه تصادفی مغناطیسی (MRAM) است.
CRAM از این پیشرفتها برای انجام محاسبات مستقیماً در سلولهای حافظه استفاده میکند و انتقال دادههای کند و پرانرژی معمول معماریهای سنتی را حذف میکند.معماری CRAM بر گلوگاه معماری سنتی فون نویمان غلبه می کند، جایی که محاسبات و حافظه موجودیت های جداگانه ای هستند.
CRAM بسیار انعطاف پذیر است. اولیا کارپوزکو، دانشیار و متخصص معماری محاسباتی میگوید محاسبات را میتوان در هر مکانی در آرایه حافظه انجام داد.این انعطافپذیری به CRAM اجازه میدهد تا با نیازهای عملکردی الگوریتمهای هوش مصنوعی مختلف به طور موثرتری نسبت به سیستمهای سنتی مطابقت داشته باشد.
CRAM به طور قابل توجهی انرژی کمتری نسبت به دستگاه های حافظه با دسترسی تصادفی فعلی (RAM) مصرف می کند که برای ذخیره داده ها به چندین ترانزیستور متکی هستند.CRAM با استفاده از MTJ – نوعی دستگاه اسپینترونیک که از اسپین الکترون به جای بار الکتریکی استفاده می کند – جایگزین کارآمدتری برای تراشه های سنتی مبتنی بر ترانزیستور می کند.
تیم دانشگاه مینهسوتا در حال حاضر با رهبران صنعت نیمهرسانا همکاری میکند تا اثرات را افزایش داده و سختافزار لازم برای کاهش مصرف انرژی هوش مصنوعی را در مقیاس بزرگتر تولید کند.توسعه فناوری CRAM نشان دهنده گامی عظیم به سوی محاسبات هوش مصنوعی پایدار است.
این نوآوری با کاهش چشمگیر مصرف انرژی هوش مصنوعی و حفظ عملکرد بالا، نوید پاسخگویی به نیازهای رو به رشد برنامه های کاربردی هوش مصنوعی را می دهد و راه را برای آینده ای کارآمدتر و دوستدار محیط زیست هموار می کند.