24 آگوست 2021 توسط Goda Naujokaitytė
هوش مصنوعی ممکن است به آرامی انقلابی در مراقبتهای بهداشتی ایجاد کند، اما بیماران نسبت به پزشکان خود اعتماد کمتری به ابزارهای مبتنی بر الگوریتم نشان میدهند. ممکن است رویکرد محتاطانه نسبت به آنچه که به عنوان جعبه سیاه شناخته میشود قابل درک باشد، اما نویسندگان این مطالعه معتقدند کمی شفافیت بیشتر میتواند اعتماد را به میزان قابل توجهی افزایش داده و جذب مشتری را افزایش دهد.
رومین کاداریو، استادیار دانشگاه اراسموس، مدرسه روتردام، میگوید: «بسیاری از تشخیصهای مبتنی بر هوش مصنوعی میتوانند به طور مقایسهای یا حتی بهتر از متخصصان انسانی عمل کنند و همچنین دسترسی آسانتر به اطلاعات بیماران خارج از محیطهای بالینی را از طریق دستگاههای هوشمند فراهم کنند.»
کاداریو گفت: «با این حال، شفافیت این مزایا اغلب با ابهام ارائه شده مطابقت دارد، که مانع بزرگی برای پذیرش آنها است.»
درخواست مردم برای درک بیشتر برنامههای هوش مصنوعی که بر زندگی آنها تأثیر میگذارد چیز جدیدی نیست. کمیتههای اخلاقی متعددی در سراسر جهان خواستار شفافیت بیشتر در نحوه کار الگوریتمها و نوع دادههایی که از آنها تغذیه میشود، هستند.
کاداریو به Science | Business میگوید آنچه که این مطالعه نشان میدهد این است که باز بودن بیشتر برای توسعهدهندگان و شرکتها مفید خواهد بود. او گفت: «بحث سیاست همان چیزی است که ما با آن برخورد میکنیم. از دیدگاه اخلاقی، واضح است که مردم حق دارند به آنها توضیح داده شود. آنچه ما استدلال میکنیم این است که نه تنها از نظر اخلاقی مفید است، بلکه برای برنامههای کاربردی و توسعه دهندگان هوش مصنوعی نیز مفید است، زیرا باعث پذیرش میشود.»
بدون اعتماد کور
هوش مصنوعی سهم بسزایی در مراقبتهای بهداشتی دارد. در حال حاضر از این روش برای بهبود تشخیص سرطان، به عنوان ابزاری در کشف دارو و کمک به پیش بینی و مدیریت همه گیریهای آینده استفاده میشود. این پتانسیل باعث شد تا کاداریو و همکارانش چیاری لونگونی و کری موروج در دانشگاه بوستون آن را مطالعه کنند.
کاداریو گفت، هوش مصنوعی در مراقبتهای بهداشتی بسیار مفیدتر از اجرای خدمات آمازون است. اما بسیاری هوش مصنوعی را بیشتر به عنوان یک کمک میدانند. برنامههای کاربردی هوش مصنوعی جعبههای سیاه هستند که عملکرد داخلی آنها حتی برای توسعه دهندگان آنها نیز یک راز است. برای مثال، یک ابزار هوش مصنوعی میتواند سرطان پوست را بر اساس تصاویری که از خالهای سرطانی و پوست سالم تغذیه شده است، تشخیص دهد. این الگوریتم که با میلیونها مثال بارگذاری شده است، میآموزد که خالهای سرطانی را از سایر ضایعات پوستی انتخاب کرده و احتمال بدخیمی را فراهم میکند. اما اینکه چگونه دقیقاً به نتیجه میرسد، در مرحله تشخیص برای بیمار مشخص نیست.
برای کاداریو، این بدان معنا نیست که نمیتوان به شفافیت دست یافت. در حالی که تجزیه الگوریتمها دشوار است، توضیح ساده مکانیک یک ابزار هوش مصنوعی میتواند اعتماد بیماران را افزایش دهد.
اتحادیه اروپا برای نجات
اوایل امسال، مرکز علمی داخلی کمیسیون اروپا، مرکز تحقیقات مشترک، مطالعه خود را در مورد کاربردهای هوش مصنوعی در مراقبتهای بهداشتی منتشر کرد. مشخص شد که در حالی که مهارتها، دادهها و ظرفیت تکنولوژیکی در پذیرش هوش مصنوعی در سلامت نقش دارند، اعتماد نیز جنبه کلیدی است. این مقاله معتقد است، برای افزایش اعتماد، اتحادیه اروپا باید شفافیت را افزایش داده و با مسائل مربوط به حفاظت از دادهها برخورد کند. این امر به نوبه خود پذیرش ابزارهای هوش مصنوعی را در بخش سلامت تسریع میکند.
در همین حال، پارلمان اروپا در ماه دسامبر هنگامی که جلنا مالینینا، مسئول سیاست دیجیتال سلامت در سازمان مصرف کنندگان اروپا به نمایندگان پارلمان اروپا گفت که بیماران باید از حق توضیح و شفافیت برخوردار باشند. وقتی به نزد پزشک میرویم، همیشه میتوانیم از پزشک بخواهیم که نحوه تشخیص را توضیح دهد. بنابراین همین امر باید در مورد هوش مصنوعی نیز صدق کند.
او همچنین اهمیت مسئولیت پذیری، ارزیابی کامل ابزارهای مبتنی بر هوش مصنوعی قبل از راه اندازی آنها و اطمینان از جلوگیری از تعصب و تبعیض در این فرایند، از جمله جنبههای کلیدی دیگر اعتمادسازی را مورد تاکید قرار داد.