نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

1 اردیبهشت 1403 7:58 ق.ظ

محققان از هوش مصنوعی می خواهند كه درباره خود توضیح دهد

NIST asks AI to explain itself

توسط چاد بوتین ، مؤسسه ملی استاندارد و فناوری19 آگوست 2020

دانشمندان NIST چهار اصل را برای قضاوت در مورد تصمیمات هوش مصنوعی قابل توضیح پیشنهاد كرده اند.

سوال این است که بسیاری از ما در کودکی با آن روبرو می شویم : “چرا این کار را کردی؟” از آنجا که هوش مصنوعی (AI)  در نسلهای بعدی تصمیم گیری های مهمی را شروع می کند که بر زندگی ما تأثیر می گذارد ، ما هم نیز می خواهیم که این ماشین ها قادر به پاسخگویی به این سؤال ساده اما عمیق باشند. از این گذشته ، چرا که باید دیگر به تصمیمات هوش مصنوعی اعتماد  کنیم و چگونه این کار را خواهیم کرد؟

این تمایل به توضیحات رضایت بخش ، دانشمندان موسسه ملی استاندارد و فناوری (NIST) را بر آن داشته است تا مجموعه ای از اصول را پیشنهاد كنند كه با استفاده از آنها می توانیم تصمیم بگیریم كه تصمیمات هوش مصنوعی قابل توضیح است. پیش نویس نشریه آنها ، چهار اصل از هوش مصنوعی قابل توضیح (پیش نویس NISTIR 8312 ) ، گفتگو در مورد آنچه باید از دستگاههای تصمیم گیری انتظار داشته باشیم ،  را ایجاد می کند.

این گزارش بخشی از تلاش های گسترده تر NIST برای کمک به توسعه سیستم های قابل اعتماد AI است. تحقیقات بنیادی NIST با هدف ایجاد اعتماد به این سیستم ها با درک قابلیت ها و محدودیت های نظری آنها و بهبود دقت ، قابلیت اطمینان ، امنیت ، استحکام و تبیین آن ، که محور این نوع انتشارات است ، قرار گرفته است.

نویسندگان در حال اخذ بازخورد در مورد این پیش نویس از عموم مردم هستند  و از آنجا که موضوع گسترده است و با رشته‌های مختلفی از مهندسی و علوم رایانه تا روانشناسی و مطالعات حقوقی ارتباط دارد ، آنها امیدوارند که بحث گسترده ای داشته باشند.

مهندس الکترونیک NIST ، جاناتون فیلیپس ، یکی از نویسندگان گزارش ، گفت: “هوش مصنوعی درگیر تصمیمات پر مخاطره است و هیچ کس نمی خواهد ماشین آلات آنها را بدون درک دلیل وجودیشان ، آنها را بسازد.” “اما توضیحی که یک مهندس را راضی کند ممکن است برای شخصی با پیشینه متفاوت ، ارزش نداشته وکار نکند. بنابراین ، ما می خواهیم پیش نویس را با تنوع دیدگاهها و نظرات ،  اصلاح کنیم.”

درک دلایل خروجی سیستم هوش مصنوعی می تواند به نفع همه کسانی باشد که خروجی آن را لمس می کنند. به عنوان مثال ، اگر هوش مصنوعی در تصمیم گیری نسبت به تصویب وام جواب منفی بدهد ، این درک ممکن است به یک طراح نرم افزار در بهبود سیستم کمک کند. اما متقاضی ممکن است بینش و استدلال هوش مصنوعی را بخواهد ، که بفهمد که چرا او را رد کرد ه است  ، یا در صورت تأیید ، به او کمک کرده تا بر اساس شیوه های حفظ رتبه اعتباری خوب خود ، به فعالیت خود ادامه دهد.

به گفته نویسندگان ، چهار اصل برای هوش مصنوعی قابل توضیح عبارتند از:

  • سیستم های هوش مصنوعی باید شواهد و دلایل را همراه با تمام خروجی های خود را ارائه دهند.
  • سیستم ها باید توضیحاتی را ارائه دهند که برای کاربران خاص معنی دار یا قابل درک باشد.
  • این توضیح به درستی منعکس کننده فرایند سیستم برای تولید خروجی است.
  • این سیستم فقط در شرایطی که برای آن طراحی شده است یا هنگامی که سیستم به خروجی خود اطمینان کافی می دهد کار می کند. (ایده این است که اگر سیستمی اعتماد کافی به تصمیم خود نداشته باشد ، نباید تصمیمی را به کاربر ارائه دهد.)

در حالی که این اصول به اندازه کافی ساده هستند ، فیلیپس گفت که :  کاربران شخصی معمولاً معیارهای مختلفی را برای قضاوت در مورد موفقیت هوش مصنوعی در برخورد با آنها دارند. به عنوان مثال ، اصل دوم – توضیح چقدر معنادار است – بسته به نقش و ارتباط آنها با کاری که هوش مصنوعی انجام می دهد ، می تواند چیزهای مختلفی را برای افراد مختلف نشان دهد.

فیلیپس و همكاران وی مفاهیم مربوط به هوش مصنوعی قابل توضیح را با كارهای قبلی مربوط به هوش مصنوعی ترسیم می كنند ، اما آنها همچنین تقاضاهایی را برای توضیح پذیری كه در دستگاه های خود قرار می دهیم با آنچه در مورد همنوعان خود قرار می دهیم مقایسه می كنند. آیا با استانداردهایی که از AI می خواهیم اندازه بگیریم اینها درست است؟ نویسندگان پس از بررسی چگونگی اتخاذ تصمیمات انسانی با توجه به چهار اصل گزارش ، نتیجه گیری می كنند كه  بر مبنای”هشدار اسپویلر” ما این نتیجه را ارایه نمی دهیم.

آنها می نویسند: “توضیحات مربوط به انسان برای انتخاب ها و نتیجه گیری های ما تا حد زیادی غیر قابل اعتماد است.” ” افراد اطلاعات بی ربط را بدون آگاهی ،  در انواع تصمیمات از داوری های شخصی گرفته تا تصمیمات هیئت منصفه ها گنجانیده اند.”

با این حال ، آگاهی ما از این استاندارد دوگانه آشکار در نهایت می تواند به ما کمک کند تا تصمیمات خود را بهتر بشناسیم و جهانی ایمن تر و شفاف تر ایجاد کنیم.

فیلیپس گفت: “در حالی که ما در هوش مصنوعی قابل توضیح پیشرفت می کنیم ، ممکن است متوجه شویم که قسمت های خاصی از سیستم های هوش مصنوعی بهتر از انسانها انتظارات و اهداف اجتماعی را برآورده می کنند.” “دانستن قابلیت توضیح در مورد سیستم هوش مصنوعی و انسان ، در را برای پیگیری پیاده سازی هایی که نقاط قوت هر یک را شامل می شود ، باز می کند.”

فیلیپس گفت ، نویسندگان امیدوارند كه نظراتی كه دریافت می كنند در پیشبرد گفتگوها موثر باشد.

وی گفت: “من فکر نمی کنم که ما هنوز می دانیم که معیارهای مناسب برای توضیح آنها چیست.” “در پایان ،  ما در تلاش نیستیم به همه این سؤالات پاسخ دهیم. ما در تلاش هستیم تا زمینه را بدست آوریم تا بحث ها نتیجه بخش باشد.”

https://techxplore.com

آیا این نوشته برایتان مفید بود؟

مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *