نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

28 آذر 1403 8:02 ق.ظ

ابزار جدید مدل‌های یادگیری عمیق برای طرحهای آسیب‌دیده برای تشخیص اشتباه

ابزار جدید مدل‌های یادگیری عمیق برای طرحهای آسیب‌دیده برای تشخیص اشتباه

4 نوامبر 2024 -توسط تس مالون، موسسه فناوری جورجیا-اعتبار: دامنه عمومی Pixabay/CC0

تصور کنید در حالی که وسیله نقلیه شروع به انحراف از جاده می کند، مسافر یک ماشین خودران هستید. این یک سنسور معیوب نیست که موقعیت خطرناک را ایجاد کند، بلکه یک حمله سایبری است. هکرها می‌توانند به شبکه‌های عصبی یادگیری عمیق (DL) در قلب سیستم کامپیوتری خودرو دسترسی داشته باشند و امنیت مسافران و سایر رانندگان و عابران پیاده را به خطر بیندازند.

توقف چنین حملات سایبری ابتدا نیازمند درک آنهاست، اما این می تواند چالش برانگیز باشد. یافتن شبکه عصبی عمیق دقیق یک سیستم محاسباتی موانع زیادی دارد. آنها اغلب انحصاری هستند و بنابراین بدون مداخله قانونی قابل توجه برای بازرسان غیرقابل دسترسی هستند. یکی دیگر از مشکلات رایج این است که آنها به طور مکرر به روز می شوند و دسترسی محققین به آخرین تکرار شبکه را دشوار می کند.

اما ابزار جدیدی از Georgia Tech می‌تواند این بدافزار مرموز را در شبکه‌های عصبی بی‌شمار در همه چیز از ماشین‌های خودران گرفته تا پایگاه داده سرگرمی IMDB باز کند. AI Psychiatry (AiP) یک ابزار پزشکی قانونی پس از مرگ سایبری است که از هوش مصنوعی برای بازیابی مدل‌های دقیقی که یک دستگاه آسیب‌دیده روی آن‌ها کار می‌کند، استفاده می‌کند و کشف می‌کند که خطای مرگبار کجا رخ داده است.

برندان سالتافورماجیو، دانشیار با انتصابات مشترک در دانشکده امنیت سایبری و حریم خصوصی و دانشکده مهندسی برق و کامپیوتر (ECE) گفت ما به ماشین های خودران در زندگی خود و ChatGPT به حرفه خود اعتماد می کنیم، اما وقتی این سیستم ها از کار می افتند، چگونه می خواهیم آنها را بررسی کنیم؟.

AiP می تواند مدل DL اصلی را هم در حافظه شبکه محلی و هم در واحد پردازش گرافیکی که شبکه را آموزش می دهد، بازیابی کند. می‌تواند این کار را بدون دانش خاصی از چارچوب، پلتفرم یا نسخه مدل انجام دهد. در عوض، مدل را با استفاده از آنچه Saltaformaggio به عنوان “سرنخ” یا اجزای مشترک در همه شبکه های عصبی می نامد، بازسازی می کند.

اینها شامل وزن‌ها، سوگیری‌ها، شکل‌ها و لایه‌هایی از تصویر حافظه مدل است – مجموعه‌ای ثابت از بیت‌ها و بایت‌ها که وقتی مدل به طور معمول کار می‌کند. تصویر حافظه بسیار مهم است زیرا AiP را قادر می سازد آن را با مدل پس از حمله مقایسه کند.

دیوید اویگنبلیک، دانشجوی دکترای ECE، گفت: «این مدل‌ها اغلب اطلاعات خود را بر اساس محیط فعلی‌شان در حین حرکت اصلاح می‌کنند، بنابراین حمله ممکن است در نتیجه مسموم کردن اطلاعاتی که یک مدل خاص می‌آموزد توسط مهاجم رخ دهد. “ما تعیین کردیم که یک تصویر حافظه می تواند تمام تغییراتی را که در طول زمان اجرا رخ می دهد، ثبت کند.”

هنگامی که مدل بازیابی شد، AiP می‌تواند آن را روی دستگاه دیگری اجرا کند، و به محققان اجازه می‌دهد آن را به طور کامل آزمایش کنند تا مشخص کنند نقص‌ها کجاست. AiP با نسخه‌های مختلف چارچوب‌های یادگیری ماشینی محبوب (TensorFlow و PyTorch) و مجموعه‌های داده (CIFAR-10، LISA، و IMDB) آزمایش شده است. 30 مدل را با 100 درصد دقت بازیابی و میزبانی مجدد کرد.

Saltaformaggio گفت: «قبل از تحقیقات ما، نمی‌توانستید به «صحنه جرم» سایبری بروید و سرنخ‌هایی پیدا کنید، زیرا هیچ تکنیکی برای انجام آن وجود نداشت. این همان چیزی است که ما در حال حاضر در آزمایشگاه پزشکی قانونی سایبری پیشگام هستیم – تکنیک هایی برای بیرون آوردن این شواهد از صحنه جرم.”

ابزارهایی مانند AiP به محققین سایبری اجازه می‌دهد تا بلافاصله کل تصویر را ببینند. حل جرایم سایبری می تواند به جلوگیری از جرایم آینده، از محافظت از داده های کاربر گرفته تا نگه داشتن خودرو در جاده ها کمک کند.

https://techxplore.com

آیا این نوشته برایتان مفید بود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *