نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

30 فروردین 1403 2:53 ب.ظ

رویکرد رایج برای ابهام‌زدایی از جعبه سیاه هوش مصنوعی برای زمان اصلی آماده نیست

10 اکتبر 2022 – توسط دانشکده پزشکی هاروارد-اعتبار: دامنه عمومی Pixabay/CC0

مدل‌های هوش مصنوعی که تصاویر پزشکی را تفسیر می‌کنند، این نوید را دارند که توانایی پزشکان را برای تشخیص دقیق و به‌موقع افزایش می‌دهند، در حالی که با اجازه دادن به پزشکان پرمشغله برای تمرکز بر موارد حیاتی و محول کردن وظایف به هوش مصنوعی، بار کاری را کاهش می‌دهند.

اما مدل‌های هوش مصنوعی که فاقد شفافیت در مورد چگونگی و چرایی تشخیص هستند، می‌توانند مشکل ساز باشند. این استدلال مبهم – که هوش مصنوعی “جعبه سیاه” نیز شناخته می شود – می تواند اعتماد پزشک را به قابلیت اطمینان ابزار هوش مصنوعی کاهش دهد و در نتیجه استفاده از آن را منع کند. این فقدان شفافیت همچنین می‌تواند پزشکان را در اعتماد بیش از حد به تفسیر ابزار گمراه کند.

در حوزه تصویربرداری پزشکی، یکی از راه‌های ایجاد مدل‌های هوش مصنوعی قابل درک‌تر نمودن و ابهام‌زدایی از تصمیم‌گیری هوش مصنوعی، ارزیابی‌های برجسته بوده است – رویکردی که از نقشه‌های حرارتی استفاده می‌کند تا مشخص کند که آیا ابزار به درستی تنها بر روی قطعات مرتبط از یک تصویر معین تمرکز می‌کند یا خیر. و یا در قسمت های نامربوط از آن تمرکز می کند. 

نقشه های حرارتی با برجسته کردن مناطقی روی یک تصویر کار می کنند که بر تفسیر مدل هوش مصنوعی تأثیر گذاشته است. این می‌تواند به پزشکان کمک کند تا ببینند که آیا مدل هوش مصنوعی روی همان مناطقی تمرکز می‌کند که آنها انجام می‌دهند یا به اشتباه روی نقاط نامربوط روی یک تصویر تمرکز می‌کنند.

اما یک مطالعه جدید که در 10 اکتبر در Nature Machine Intelligence منتشر شد، نشان می‌دهد که با همه وعده‌هایشان، نقشه‌های گرمایی برجسته ممکن است هنوز آماده نباشند.

این تجزیه و تحلیل که توسط محقق دانشکده پزشکی هاروارد، پراناو راجپورکار، متیو لونگرن از استنفورد و آدریل ساپورتا از دانشگاه نیویورک انجام شد، اعتبار هفت روش برجسته پرکاربرد را برای تعیین میزان اطمینان و دقت آنها در شناسایی آسیب شناسی های مرتبط با 10 بیماری که معمولاً تشخیص داده می شوند، کمی سازی کرد. در اشعه ایکس، مانند ضایعات ریه، پلورال افیوژن، ادم یا ساختارهای بزرگ قلب. برای اطمینان از عملکرد، محققان عملکرد ابزارها را با قضاوت متخصص انسان مقایسه کردند.

در تحلیل نهایی، ابزارهایی که از نقشه‌های حرارتی مبتنی بر برجسته‌سازی استفاده می‌کنند، در مقایسه با رادیولوژیست‌های انسانی، به طور مداوم در ارزیابی تصویر و توانایی خود در تشخیص ضایعات پاتولوژیک ضعیف عمل می‌کنند.

این کار اولین تحلیل مقایسه ای بین نقشه های برجسته و عملکرد متخصص انسانی در ارزیابی آسیب شناسی های پرتو ایکس متعدد را نشان می دهد. این مطالعه همچنین درک دقیقی از اینکه آیا و چگونه برخی از ویژگی‌های پاتولوژیک روی یک تصویر ممکن است بر عملکرد ابزار هوش مصنوعی تأثیر بگذارد ارائه می‌دهد.

ویژگی نقشه برجسته در حال حاضر به عنوان یک ابزار تضمین کیفیت توسط اقدامات بالینی استفاده می شود که از هوش مصنوعی برای تفسیر روش های تشخیص به کمک رایانه، مانند خواندن اشعه ایکس قفسه سینه استفاده می کنند. به گفته محققان، اما با توجه به یافته‌های جدید، این ویژگی باید با احتیاط و روش دقیقی از شک و تردید اعمال شود.

راجپورکار که استادیار انفورماتیک زیست پزشکی در HMS است، گفت: «تحلیل ما نشان می‌دهد که نقشه‌های برجسته هنوز به اندازه کافی قابل اعتماد نیستند تا تصمیمات بالینی فردی اتخاذ شده توسط یک مدل هوش مصنوعی را تأیید کنند. “ما محدودیت های مهمی را شناسایی کردیم که نگرانی های ایمنی جدی را برای استفاده در عمل فعلی ایجاد می کند.”

محققان هشدار می‌دهند که به دلیل محدودیت‌های مهم شناسایی‌شده در این مطالعه، نقشه‌های حرارتی مبتنی بر برجستگی باید قبل از اینکه به طور گسترده در مدل‌های هوش مصنوعی بالینی مورد استفاده قرار گیرند، بیشتر اصلاح شوند.

https://techxplore.com/news/2022-10-common-approach-demystify-black-ai.html?utm_source=nwletter&utm_medium=email&utm_campaign=daily-nwletter

آیا این نوشته برایتان مفید بود؟

مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *