نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

3 آذر 1403 11:57 ق.ظ

دستگاه دانشگاه مینه سوتا مصرف انرژی هوش مصنوعی را کاهش می دهد

دستگاه دانشگاه مینه سوتا مصرف انرژی هوش مصنوعی را کاهش می دهد

29 ژوئیه 2024-مصرف انرژی هوش مصنوعی-عکس های سهام © shutterstock/KT

محققان دانشگاه مینه‌سوتا دستگاه سخت‌افزاری پیشرفته‌ای ساخته‌اند که می‌تواند مصرف انرژی هوش مصنوعی را به میزان چشمگیری حداقل تاهزار برابر کاهش دهد.این پیشرفت نشان دهنده یک جهش به جلو در تلاش برای کاربردهای هوش مصنوعی با انرژی کارآمدتر است.

با رواج روزافزون کاربردهای هوش مصنوعی، نیاز مبرمی به افزایش بهره وری انرژی بدون به خطر انداختن عملکرد یا افزایش هزینه ها وجود دارد.فرآیندهای سنتی هوش مصنوعی با انتقال مداوم داده ها بین منطق (پردازش) و حافظه (ذخیره سازی) مقادیر زیادی انرژی مصرف می کنند.

مدل جدید دانشگاه مینه‌سوتا، به نام حافظه با دسترسی تصادفی محاسباتی (CRAM)، با نگهداری داده‌ها در حافظه برای پردازش، به این مشکل می‌پردازد.

یانگ لو، محقق فوق دکتری در دپارتمان مهندسی برق و کامپیوتر و توضیح داد: «این کار اولین نمایش آزمایشی CRAM است، که در آن داده‌ها می‌توانند به طور کامل در آرایه حافظه پردازش شوند، بدون نیاز به خروج از شبکه‌ای که رایانه اطلاعات را در آن ذخیره می‌کند».

آژانس بین‌المللی انرژی (IEA) پیش‌بینی می‌کند که مصرف انرژی هوش مصنوعی از 460 تراوات ساعت (TWh) در سال 2022 به 1000 تراوات ساعت در سال 2026 دوبرابر خواهد شد که با کل مصرف برق ژاپن قابل مقایسه است.

شتاب‌دهنده‌های استنتاج یادگیری ماشین مبتنی بر CRAM می‌توانند تا 1000 برابر به بهبود انرژی دست یابند، در حالی که برخی از برنامه‌ها در مقایسه با روش‌های سنتی 2500 و 1700 برابر صرفه‌جویی در مصرف انرژی دارند.

جیان پینگ وانگ، نویسنده ارشد مقاله و استاد برجسته مک نایت در دانشگاه مینه‌سوتا، می‌گوید: «مفهوم اولیه ما برای استفاده مستقیم از سلول‌های حافظه برای محاسبات 20 سال پیش احمقانه تلقی می‌شد.تیم بین رشته ای متشکل از کارشناسان فیزیک، علم مواد، علوم کامپیوتر و مهندسی، این فناوری را از سال 2003 توسعه داده است.

این تحقیق بر اساس کار ثبت شده در اتصالات تونل مغناطیسی (MTJs)، دستگاه های نانوساختار مورد استفاده در هارد دیسک ها، حسگرها و سایر سیستم های میکروالکترونیک، از جمله حافظه تصادفی مغناطیسی (MRAM) است.

CRAM از این پیشرفت‌ها برای انجام محاسبات مستقیماً در سلول‌های حافظه استفاده می‌کند و انتقال داده‌های کند و پرانرژی معمول معماری‌های سنتی را حذف می‌کند.معماری CRAM بر گلوگاه معماری سنتی فون نویمان غلبه می کند، جایی که محاسبات و حافظه موجودیت های جداگانه ای هستند.

CRAM بسیار انعطاف پذیر است. اولیا کارپوزکو، دانشیار و متخصص معماری محاسباتی می‌گوید محاسبات را می‌توان در هر مکانی در آرایه حافظه انجام داد.این انعطاف‌پذیری به CRAM اجازه می‌دهد تا با نیازهای عملکردی الگوریتم‌های هوش مصنوعی مختلف به طور موثرتری نسبت به سیستم‌های سنتی مطابقت داشته باشد.

CRAM به طور قابل توجهی انرژی کمتری نسبت به دستگاه های حافظه با دسترسی تصادفی فعلی (RAM) مصرف می کند که برای ذخیره داده ها به چندین ترانزیستور متکی هستند.CRAM با استفاده از MTJ – نوعی دستگاه اسپینترونیک که از اسپین الکترون به جای بار الکتریکی استفاده می کند – جایگزین کارآمدتری برای تراشه های سنتی مبتنی بر ترانزیستور می کند.

تیم دانشگاه مینه‌سوتا در حال حاضر با رهبران صنعت نیمه‌رسانا همکاری می‌کند تا اثرات را افزایش داده و سخت‌افزار لازم برای کاهش مصرف انرژی هوش مصنوعی را در مقیاس بزرگ‌تر تولید کند.توسعه فناوری CRAM نشان دهنده گامی عظیم به سوی محاسبات هوش مصنوعی پایدار است.

این نوآوری با کاهش چشمگیر مصرف انرژی هوش مصنوعی و حفظ عملکرد بالا، نوید پاسخگویی به نیازهای رو به رشد برنامه های کاربردی هوش مصنوعی را می دهد و راه را برای آینده ای کارآمدتر و دوستدار محیط زیست هموار می کند.

آیا این نوشته برایتان مفید بود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *