نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

1 آذر 1403 8:50 ب.ظ

یک متخصص درباره تراشه‌های تقویت‌کننده هوش مصنوعی GPU توضیح می‌دهد

یک متخصص درباره تراشه‌های تقویت‌کننده هوش مصنوعی GPU توضیح می‌دهد

6 مارس 2024 -نوشته کنراد ساندرسون،اعتبار AMD-از آنجایی که جهان برای استفاده از آخرین موج فناوری‌های هوش مصنوعی عجله دارد، یک قطعه سخت‌افزار با فناوری پیشرفته به یک کالای شگفت‌آور تبدیل شده است: واحد پردازش گرافیکی یا GPU.

یک پردازنده گرافیکی پیشرفته می تواند ده ها هزار دلار فروخته شود و سازنده پیشرو NVIDIA با افزایش تقاضا برای محصولاتش، ارزش بازار خود را به بیش از 2 تریلیون دلار افزایش داده است.

پردازنده‌های گرافیکی نیز فقط محصولات پیشرفته هوش مصنوعی نیستند. پردازنده‌های گرافیکی کمتری در گوشی‌ها، لپ‌تاپ‌ها و کنسول‌های بازی نیز وجود دارد.

تا به حال احتمالاً از خود می پرسید: واقعاً GPU چیست؟ و چه چیزی آنها را بسیار خاص می کند؟

GPU چیست؟

پردازنده‌های گرافیکی در ابتدا برای تولید و نمایش سریع صحنه‌ها و اشیاء سه بعدی پیچیده، مانند مواردی که در بازی‌های ویدیویی و نرم‌افزارهای طراحی به کمک رایانه دخیل هستند، طراحی شدند. پردازنده‌های گرافیکی مدرن کارهایی مانند فشرده‌سازی جریان‌های ویدئویی را نیز انجام می‌دهند.

“مغز” اکثر رایانه ها تراشه ای است به نام واحد پردازش مرکزی (CPU). پردازنده‌ها را می‌توان برای تولید صحنه‌های گرافیکی و از حالت فشرده‌کردن ویدیوها استفاده کرد، اما معمولاً در مقایسه با پردازنده‌های گرافیکی در انجام این کارها بسیار کندتر هستند. CPU ها برای کارهای محاسباتی عمومی مانند پردازش کلمه و مرور صفحات وب مناسب تر هستند.

GPU ها چه تفاوتی با CPU دارند؟

یک CPU معمولی مدرن از 8 تا 16 هسته تشکیل شده است که هر یک می توانند وظایف پیچیده را به صورت متوالی پردازش کنند.از سوی دیگر، پردازنده‌های گرافیکی دارای هزاران هسته نسبتاً کوچک هستند که برای دستیابی به پردازش کلی سریع، همه به طور همزمان (“موازی”) طراحی شده‌اند. این باعث می شود آنها برای کارهایی مناسب باشند که به تعداد زیادی عملیات ساده نیاز دارند که می توانند همزمان انجام شوند، نه یکی پس از دیگری.پردازنده‌های گرافیکی سنتی دو نوع اصلی دارند.

اول، تراشه‌های مستقلی وجود دارند که اغلب به صورت کارت‌های افزودنی برای رایانه‌های رومیزی بزرگ ارائه می‌شوند. دوم، پردازنده‌های گرافیکی ترکیب شده با یک CPU در یک بسته تراشه، که اغلب در لپ‌تاپ‌ها و کنسول‌های بازی مانند پلی‌استیشن 5 یافت می‌شوند. در هر دو مورد، CPU کارهای GPU را کنترل می‌کند.

چرا GPU ها برای هوش مصنوعی بسیار مفید هستند؟

به نظر می رسد که پردازنده های گرافیکی را می توان برای انجام کارهایی بیشتر از تولید صحنه های گرافیکی تغییر کاربری داد.

بسیاری از تکنیک‌های یادگیری ماشینی که در پشت هوش مصنوعی (AI) قرار دارند، مانند شبکه‌های عصبی عمیق، به شدت بر اشکال مختلف «ضرب ماتریس» متکی هستند.این یک عملیات ریاضی است که در آن مجموعه های بسیار بزرگی از اعداد ضرب و با هم جمع می شوند. این عملیات به خوبی برای پردازش موازی مناسب هستند و از این رو می‌توانند به سرعت توسط پردازنده‌های گرافیکی انجام شوند.

آینده پردازنده‌های گرافیکی چیست؟

به دلیل افزایش تعداد هسته‌ها و سرعت عملکرد آن‌ها، قدرت پردازشگرهای گرافیکی به طور پیوسته در حال افزایش است. این پیشرفت‌ها عمدتاً ناشی از پیشرفت در تولید تراشه توسط شرکت‌هایی مانند TSMC در تایوان است.اندازه هر یک از ترانزیستورها – اجزای اساسی هر تراشه کامپیوتری – در حال کاهش است و به ترانزیستورهای بیشتری اجازه می دهد تا در همان مقدار فضای فیزیکی قرار گیرند.با این حال، این تمام داستان نیست. در حالی که GPU های سنتی برای کارهای محاسباتی مرتبط با هوش مصنوعی مفید هستند، اما بهینه نیستند.

همانطور که پردازنده‌های گرافیکی در ابتدا برای سرعت بخشیدن به رایانه‌ها با ارائه پردازش‌های تخصصی برای گرافیک طراحی شدند، شتاب‌دهنده‌هایی نیز وجود دارند که برای سرعت بخشیدن به وظایف یادگیری ماشین طراحی شده‌اند. این شتاب دهنده ها اغلب به عنوان “GPU های مرکز داده” شناخته می شوند.

برخی از محبوب ترین شتاب دهنده ها، ساخته شده توسط شرکت هایی مانند AMD و NVIDIA، به عنوان GPU های سنتی شروع به کار کردند. با گذشت زمان، طرح‌های آن‌ها برای انجام بهتر وظایف مختلف یادگیری ماشین، به عنوان مثال با پشتیبانی از فرمت عددی کارآمدتر «مغز شناور» تکامل یافت.

شتاب‌دهنده‌های دیگری مانند واحدهای پردازش تنسور گوگل و هسته‌های تنسیکس تنسورنت، از ابتدا برای سرعت بخشیدن به شبکه‌های عصبی عمیق طراحی شده‌اند.

پردازنده‌های گرافیکی مرکز داده و سایر شتاب‌دهنده‌های هوش مصنوعی معمولاً حافظه بیشتری نسبت به کارت‌های الحاقی GPU سنتی دارند که برای آموزش مدل‌های بزرگ هوش مصنوعی بسیار مهم است. هرچه مدل هوش مصنوعی بزرگتر باشد، توانایی و دقت بیشتری دارد.

برای تسریع بیشتر در آموزش و مدیریت مدل‌های هوش مصنوعی حتی بزرگ‌تر، مانند ChatGPT، بسیاری از پردازنده‌های گرافیکی مرکز داده را می‌توان با هم ترکیب کرد و یک ابر رایانه را تشکیل داد. این به نرم افزار پیچیده تری نیاز دارد تا بتواند به درستی از قدرت تقسیم کردن اعداد موجود استفاده کند. رویکرد دیگر ایجاد یک شتاب دهنده بسیار بزرگ است، مانند “پردازنده در مقیاس ویفر” تولید شده توسط Cerebras.

آیا تراشه های تخصصی آینده هستند؟

CPU ها نیز ثابت نبوده اند. CPUهای اخیر AMD و Intel دارای دستورالعمل‌های سطح پایین داخلی هستند که اعداد مورد نیاز شبکه‌های عصبی عمیق را سرعت می‌بخشد. این عملکرد اضافی عمدتاً به وظایف “استنتاج” کمک می کند – یعنی استفاده از مدل های هوش مصنوعی که قبلاً در جاهای دیگر توسعه یافته اند.

برای آموزش مدل های هوش مصنوعی در وهله اول، هنوز به شتاب دهنده های بزرگ شبیه GPU نیاز است.

امکان ایجاد هر چه بیشتر وجود دارد؟

شتاب دهنده های تخصصی برای الگوریتم های خاص یادگیری ماشینی. به عنوان مثال، اخیراً شرکتی به نام Groq یک “واحد پردازش زبان” (LPU) تولید کرده است که به طور خاص برای اجرای مدل های زبان بزرگ در امتداد خطوط ChatGPT طراحی شده است.

با این حال، ایجاد این پردازنده های تخصصی منابع مهندسی قابل توجهی را می طلبد. تاریخ نشان می دهد که استفاده و محبوبیت هر الگوریتم یادگیری ماشینی به اوج خود می رسد و سپس کاهش می یابد – بنابراین سخت افزار تخصصی گران قیمت ممکن است به سرعت قدیمی شود.

با این حال، برای مصرف کننده معمولی، بعید است که مشکلی ایجاد کند. پردازنده‌های گرافیکی و سایر تراشه‌های موجود در محصولاتی که استفاده می‌کنید احتمالاً سریع‌تر می‌شوند.

https://techxplore.com

آیا این نوشته برایتان مفید بود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *