نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

2 آذر 1403 6:53 ق.ظ

افزایش سرعت یادگیری ماشینی

18 مه 2022 -توسط دانشگاه لیهای -اعتبار: CC0 دامنه عمومی

داده ها بر روی یک مدل ریاضی مانند دانه های شن و ماسه که در یک منظره سنگی پرتاب می شوند،برخی از این دانه‌ها به سادگی همراه با ضربه کم یا بدون ضربه حرکت می‌کنند. اما برخی از آنها نشان خود را می گذارند: آزمایش، سخت شدن و در نهایت تغییر شکل چشم انداز مطابق با الگوهای ذاتی و نوساناتی که در طول زمان ظاهر می شوند.

ریک بلوم، پروفسور رابرت دبلیو. ویزمن، استاد مهندسی برق و کامپیوتر در دانشگاه لیهای، به دنبال کارآمدی تکنیک‌های یادگیری توزیع‌شده است که برای هوش مصنوعی مدرن (AI) و یادگیری ماشینی (ML) حیاتی هستند. در اصل، هدف او پرتاب دانه های بسیار کمتری از داده ها بدون کاهش تأثیر کلی است.

در مقاله «یادگیری توزیع شده با تفاوت‌های گرادیان پراکنده»، منتشر شده در یک شماره ویژه متمرکز بر ML در مجله IEEE Selected Topics in Signal Processing، Blum و همکارانش استفاده از «روش نزول گرادیان با اسپاسفیکاسیون و تصحیح خطا» را پیشنهاد کردند. GD-SEC، برای بهبود کارایی ارتباطات یادگیری ماشینی انجام شده در 17 می 2022 منتشر شد.

او می‌گوید: مشکلات در بهینه‌سازی توزیع‌شده در سناریوهای مختلفی ظاهر می‌شوند که معمولاً به ارتباطات بی‌سیم متکی هستند. تأخیر، مقیاس پذیری و حریم خصوصی چالش های اساسی هستند.

او ادامه می‌دهد: «الگوریتم‌های مختلف بهینه‌سازی توزیع‌شده برای حل این مشکل ایجاد شده‌اند.» و یکی از روش‌های اصلی استفاده از GD کلاسیک در معماری کاربر-سرور است. در این محیط، سرور مرکزی پس از تجمیع داده‌های دریافتی از پارامترهای مدل را به‌روزرسانی می‌کند. همه کاربران، و سپس پارامترهای به روز شده را برای کاربران پخش می کند. اما عملکرد کلی با این واقعیت محدود می شود که هر کاربر باید تمام داده های خود را همیشه منتقل کند. هنگام آموزش یک شبکه عصبی عمیق، این می تواند طبق دستور باشد. 200 مگابایت از هر دستگاه کاربر در هر تکرار. این مرحله ارتباطی می تواند به راحتی به یک گلوگاه مهم در عملکرد کلی تبدیل شود، به ویژه در سیستم های یادگیری جمعی و هوش مصنوعی لبه.”

بلوم توضیح می دهد که از طریق استفاده از GD-SEC، الزامات ارتباطی به میزان قابل توجهی کاهش می یابد. این تکنیک از یک رویکرد فشرده‌سازی داده استفاده می‌کند که در آن هر کاربر مولفه‌های گرادیان بزرگی کوچک را صفر می‌کند – معادل پردازش سیگنال عدم تعریق چیزهای کوچک. سپس کاربر فقط اجزای غیر صفر باقی مانده را به سرور منتقل می کند. به عبارت دیگر، داده های معنی دار و قابل استفاده تنها بسته هایی هستند که در مدل راه اندازی می شوند.

بلوم می‌گوید: «روش‌های فعلی موقعیتی را ایجاد می‌کنند که در آن هر کاربر هزینه محاسباتی گرانی دارد؛ GD-SEC نسبتاً ارزان است که در هر دور فقط یک مرحله GD مورد نیاز است.

همکاران پروفسور بلوم در این پروژه عبارتند از دانشجوی سابق وی، ییچنگ چن، دکترا، که اکنون یک مهندس نرم افزار در لینکدین است. مارتین تاکاچ، دانشیار دانشگاه هوش مصنوعی محمد بن زاید؛ و برایان ام. سادلر، همکار IEEE، دانشمند ارشد ارتش ایالات متحده برای سیستم های هوشمند، و عضو آزمایشگاه تحقیقاتی ارتش.

https://techxplore.com

آیا این نوشته برایتان مفید بود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *