نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

2 آذر 1403 7:39 ق.ظ

وقت آن است که دانش لازم برای اطمینان از استفاده ایمن و اخلاقی از هوش مصنوعی ایجاد کنیم

08 ژوئیه 2021 توسط امر کاظم

گسترش سریع هوش مصنوعی در دستگاه ها ، محل کار و دولت ها نیازمند ایجاد یک رشته جدید است: حسابرسی هوش مصنوعی.اگر در دهه گذشته بیشتر تمرکز نظارتی دولت بر حفظ حریم خصوصی داده ها باشد ، در دهه آینده ممکن است توجه به رفتار هوش مصنوعی (AI) یا آنچه برخی محققان رفتار الگوریتمی می نامند تغییر کند.

این پاسخ اجتناب ناپذیر به هوش مصنوعی است که در انواع مختلفی از تنظیمات ، از وسایل نقلیه خودمختار گرفته تا بیمارستان ها ، مورد استفاده قرار می گیرد.  تنوع برنامه ها نیز به سرعت در حال رشد است. برای همگام سازی ، یک زمینه تحقیقاتی و عملی همراه با آن سیستم حسابرسی هوش مصنوعی مورد نیاز است ، تا اطمینان رسمی از قانونی ، اخلاقی و ایمن بودن الگوریتم های مورد استفاده در هوش مصنوعی ارائه شود.

عدم نظارت حرفه ای تعیین شده بر استفاده از هوش مصنوعی ، هم اکنون بسیاری از شرکت ها را تحت تأثیر قرار داده است. فیس بوک و کمبریج آنالیتیکا از جمله شرکت هایی هستند که به اعتبار شهرت یا حقوقی آسیب می رسانند. این شرکت مشاور انگلیسی به دستکاری آرای رای دهندگان با استفاده از داده های فیس بوک در خصوص کاربرانی که اجازه خود نداده بودند متهم شد.

به همین ترتیب ، گزارش شده است که آمازون یک سیستم هوش مصنوعی برای رتبه بندی متقاضیان شغل ایجاد کرده است ، این نرم افزار تبعیض آمیز علیه زنان است. (آمازون گفت این برنامه هرگز مورد استفاده عملی قرار نگرفت.)

برای کمک به موسسات برای اطمینان از استفاده صحیح و اخلاقی از هوش مصنوعی ، ما “حسابرسی الگوریتم” را پیشنهاد می دهیم.این تخصص به تعدادی از خطرات استراتژیک: اعتبار ، مالی و حاکمیت پاسخ می دهد.

خطرات شهرت زمانی بوجود می آیند که شرکت ها دارای سیستم های تبعیض آمیز یا غیراخلاقی هستند. خطرات مالی ناشی از جریمه های حکومتی ، دادخواست های مشتری یا از دست دادن درآمد است. در آخر اینکه ، توسعه دهندگان و مستقر کنندگان یک سیستم باید همیشه سیستم های هوش مصنوعی را کنترل کنند و توانایی نظارت و گزارش در مورد آنها را داشته باشند. عدم انجام این کار خطرات حاکمیت را ایجاد می کند.

همانطور که بسیاری از شرکت ها و موسسات خیریه مجبور به ارائه حساب های مالی حسابرسی شده هستند ، بنابراین آنها نیز ملزم به ارائه حسابرسی از اقدامات هوش مصنوعی خود و هر الگوریتم مرتبط هستند.

فروشندگان هوش مصنوعی اختصاصی یا کسانی که هوش مصنوعی منبع باز دارند ، باید بتوانند شواهد حاکمیت قوی سیستم ها را در طول توسعه خود ارائه دهند. حسابرسان هوش مصنوعی برای بررسی مدیریت عملیات داخلی و دستیابی به مدرک نظارتی و مشتریان بالقوه نیاز به دسترسی دارند که سیستم ها از نظر اخلاقی و قانونی مطابقت دارند.

تمرکز اولیه حسابرسان هوش مصنوعی می تواند استخدام کارمندان باشد. استخدام یک میدان مین اخلاقی ، نظارتی و قانونی است. بسیاری از شرکت ها برای غربالگری ، توصیه و استخدام کارمندان بالقوه ، سیستم AI را ارائه می دهند و همچنین در حال انجام ممیزی هوش مصنوعی در این زمینه ، به شرکت ها اطمینان می دهد که سیستمی را انتخاب می کنند که ایمن و مناسب باشد.

مقررات در مورد افق

علاوه بر علاقه شخصی ، شرکت ها دلیل مهم دیگری نیز برای حمایت از توسعه حسابرسی AI دارند. اگر آنها اقدامات حفاظتی خود را ارائه ندهند ، این خطر وجود دارد که دولت ها این کار را برای آنها انجام دهند – و این می تواند منجر به امری کثیف شود. در واقع ، فعالیت های نظارتی و قانونی مربوط به نظارت بر هوش مصنوعی در حال افزایش است.

به نام حمایت از مشتریان یا ترویج عدم تبعیض ، دولت ها می توانند مقرراتی را اعمال کنند که ممکن است این تأثیرات را داشته باشد یا نداشته باشد. در ایالات متحده ، سیاستمداران در مورد قانون پاسخگویی الگوریتم ایالات متحده در کنگره بحث می کنند. در سطح ایالتی ، قانونی که معرفی شده است شامل قانون پاسخگویی سیستم های تصمیم گیری خودکار در کالیفرنیا و ممیزی های پیشنهادی اجباری تعصب AI در شهر نیویورک است.

در اروپا ، انگلستان در مورد توصیه کمیسر اطلاعات در مورد حسابرسی AI بحث می کند. دامنه این امر وسیع تر از بسیاری از این ابتکارات پیش نویس قانون آینده اتحادیه اروپا در مورد هوش مصنوعی است که خواستار الزامات قانونی برای حاکمیت و گزارش دهی مناسب هوش مصنوعی است. (سیستم های پرخطر ، از جمله استخدام کارمندان در قانون ذکر شده است).

با توجه به سرعت توسعه و تنظیم هوش مصنوعی ، سیاست گذاران ، محققان و شرکت ها باید زمینه را برای حسابرسی هوش مصنوعی فراهم کنند.

https://sciencebusiness.net

آیا این نوشته برایتان مفید بود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *