10 اکتبر 2022 – توسط دانشکده پزشکی هاروارد-اعتبار: دامنه عمومی Pixabay/CC0
مدلهای هوش مصنوعی که تصاویر پزشکی را تفسیر میکنند، این نوید را دارند که توانایی پزشکان را برای تشخیص دقیق و بهموقع افزایش میدهند، در حالی که با اجازه دادن به پزشکان پرمشغله برای تمرکز بر موارد حیاتی و محول کردن وظایف به هوش مصنوعی، بار کاری را کاهش میدهند.
اما مدلهای هوش مصنوعی که فاقد شفافیت در مورد چگونگی و چرایی تشخیص هستند، میتوانند مشکل ساز باشند. این استدلال مبهم – که هوش مصنوعی “جعبه سیاه” نیز شناخته می شود – می تواند اعتماد پزشک را به قابلیت اطمینان ابزار هوش مصنوعی کاهش دهد و در نتیجه استفاده از آن را منع کند. این فقدان شفافیت همچنین میتواند پزشکان را در اعتماد بیش از حد به تفسیر ابزار گمراه کند.
در حوزه تصویربرداری پزشکی، یکی از راههای ایجاد مدلهای هوش مصنوعی قابل درکتر نمودن و ابهامزدایی از تصمیمگیری هوش مصنوعی، ارزیابیهای برجسته بوده است – رویکردی که از نقشههای حرارتی استفاده میکند تا مشخص کند که آیا ابزار به درستی تنها بر روی قطعات مرتبط از یک تصویر معین تمرکز میکند یا خیر. و یا در قسمت های نامربوط از آن تمرکز می کند.
نقشه های حرارتی با برجسته کردن مناطقی روی یک تصویر کار می کنند که بر تفسیر مدل هوش مصنوعی تأثیر گذاشته است. این میتواند به پزشکان کمک کند تا ببینند که آیا مدل هوش مصنوعی روی همان مناطقی تمرکز میکند که آنها انجام میدهند یا به اشتباه روی نقاط نامربوط روی یک تصویر تمرکز میکنند.
اما یک مطالعه جدید که در 10 اکتبر در Nature Machine Intelligence منتشر شد، نشان میدهد که با همه وعدههایشان، نقشههای گرمایی برجسته ممکن است هنوز آماده نباشند.
این تجزیه و تحلیل که توسط محقق دانشکده پزشکی هاروارد، پراناو راجپورکار، متیو لونگرن از استنفورد و آدریل ساپورتا از دانشگاه نیویورک انجام شد، اعتبار هفت روش برجسته پرکاربرد را برای تعیین میزان اطمینان و دقت آنها در شناسایی آسیب شناسی های مرتبط با 10 بیماری که معمولاً تشخیص داده می شوند، کمی سازی کرد. در اشعه ایکس، مانند ضایعات ریه، پلورال افیوژن، ادم یا ساختارهای بزرگ قلب. برای اطمینان از عملکرد، محققان عملکرد ابزارها را با قضاوت متخصص انسان مقایسه کردند.
در تحلیل نهایی، ابزارهایی که از نقشههای حرارتی مبتنی بر برجستهسازی استفاده میکنند، در مقایسه با رادیولوژیستهای انسانی، به طور مداوم در ارزیابی تصویر و توانایی خود در تشخیص ضایعات پاتولوژیک ضعیف عمل میکنند.
این کار اولین تحلیل مقایسه ای بین نقشه های برجسته و عملکرد متخصص انسانی در ارزیابی آسیب شناسی های پرتو ایکس متعدد را نشان می دهد. این مطالعه همچنین درک دقیقی از اینکه آیا و چگونه برخی از ویژگیهای پاتولوژیک روی یک تصویر ممکن است بر عملکرد ابزار هوش مصنوعی تأثیر بگذارد ارائه میدهد.
ویژگی نقشه برجسته در حال حاضر به عنوان یک ابزار تضمین کیفیت توسط اقدامات بالینی استفاده می شود که از هوش مصنوعی برای تفسیر روش های تشخیص به کمک رایانه، مانند خواندن اشعه ایکس قفسه سینه استفاده می کنند. به گفته محققان، اما با توجه به یافتههای جدید، این ویژگی باید با احتیاط و روش دقیقی از شک و تردید اعمال شود.
راجپورکار که استادیار انفورماتیک زیست پزشکی در HMS است، گفت: «تحلیل ما نشان میدهد که نقشههای برجسته هنوز به اندازه کافی قابل اعتماد نیستند تا تصمیمات بالینی فردی اتخاذ شده توسط یک مدل هوش مصنوعی را تأیید کنند. “ما محدودیت های مهمی را شناسایی کردیم که نگرانی های ایمنی جدی را برای استفاده در عمل فعلی ایجاد می کند.”
محققان هشدار میدهند که به دلیل محدودیتهای مهم شناساییشده در این مطالعه، نقشههای حرارتی مبتنی بر برجستگی باید قبل از اینکه به طور گسترده در مدلهای هوش مصنوعی بالینی مورد استفاده قرار گیرند، بیشتر اصلاح شوند.