22 فوریه 2022
توسط فرانسوا کاندلون، رودولف شارم دی کارلو و استیون میلز
Why AI Needs a Social Licens
اگر کسبوکار میخواهد از هوش مصنوعی در مقیاس استفاده کند، پیروی از دستورالعملهای فنی برای توسعه مسئولانه هوش مصنوعی کافی نیست. برای استقرار این فناوری باید تأیید صریح جامعه را دریافت کند.
شش سال پیش، در مارس 2016، شرکت مایکروسافت یک چت بات آزمایشی مبتنی بر هوش مصنوعی به نام TayTweets را راه اندازی کرد که مدیریت توییتر آن @TayandYou بود. Tay که مخفف عبارت «در مورد تو فکر میکنم» از یک دختر 19 ساله آمریکایی تقلید کرده است، بنابراین این غول دیجیتال میتواند سرعت یادگیری هوش مصنوعی را هنگام تعامل با انسانها نشان دهد. تای با توجه به توصیف آن به عنوان “هوش مصنوعی با سرمای صفر” شروع به پاسخ گستاخانه به کاربران توییتر کرد . هر چند برخی از موضوعات خارج از محدودیت بودند. مایکروسافت به تای آموزش داده بود که در مورد مسائل اجتماعی مانند زندگی سیاه پوستان ، مهم است اظهار نظر نکند.
به زودی، گروهی از کاربران توییتر، تای را با رگباری از توییتها درباره موضوعات بحثبرانگیز مانند هولوکاست و گیمرگیت هدف قرار دادند. آنها ربات چت را وادار کردند تا با پاسخهای نژادپرستانه و جنسی پاسخ دهد و از قابلیت تکرار پس از من آن بهرهبرداری کند. مایکروسافت با درک اینکه Tay مانند واتسون IBM که پس از مطالعه فرهنگ لغت آنلاین Urban شروع به استفاده از فحاشی کرد، واکنش نشان میدهد، به سرعت اولین توییتهای تحریکآمیز را حذف کرد. کمتر از 16 ساعت و بیش از 100000 توییت بعد، غول دیجیتال Tay را تعطیل کرد. اگرچه مایکروسافت یکی از پیشگامان و پیروان اصول “هوش مصنوعی مسئول” در توسعه الگوریتم است، Tay یک فاجعه روابط عمومی بود. و منتقدان، به طرز شومی، مشکل را اینگونه میدانستند که «هوش مصنوعی در بدترین حالت و تنها در آغاز راه است».
دو سال قبل، آمازون بی سر و صدا یک الگوریتم هوش مصنوعی ساخت که می توانست درخواست های شغلی را در مقیاس پنج درجه ای بررسی و رتبه بندی کند. هدف این بود که تعداد زیادی رزومه دریافتی را بررسی کند و امیدوارکنندهترین نامزدها را شناسایی کند. این خرده فروش 500 مدل برای تجزیه و تحلیل متقاضیان برای هر شغل بر اساس مکان ایجاد کرد و به الگوریتم یاد داد که بیش از 50000 اصطلاحی را که در برنامهها و رزومههایی که در گذشته دریافت کرده بود شناسایی کند. این فرآیند به هوش مصنوعی کمک کرد تا وزن کمی را به مهارتهای عمومی، مانند تعداد زبانهای رایانهای که یک برنامهنویس میداند، اختصاص دهد.
اما با گذشت زمان، آمازون متوجه این واقعیت شد که هوش مصنوعی نامزدها را به روشی خنثی رتبهبندی نمیکند. بیشتر مردان را توصیه می کند. این شرکت این الگوریتم را روی درخواستهای ارسال شده به شرکت در طول یک دهه آموزش داده بود و بیشتر آن متقاضیان مرد بودند. بنابراین هوش مصنوعی دریافت که کاندیداهای مرد ارجحیت دارند. رزومههایی را که شامل کلماتی مانند «زن» یا «زنان» میشد رد میکرد، مانند «کالج زنان» یا «برنده مدال طلای زنان». تیم توسعه هوش مصنوعی برنامه را ویرایش کرد تا آن را از نظر جنسیتی خنثی کند، اما نمیتوانست تضمین کند که الگوریتم راههای دیگری برای تبعیض علیه زنان پیدا نمیکند. اگرچه آمازون یکی از اعضای مشارکت در زمینه هوش مصنوعی است و فکر میکرد که الگوریتمی منصفانه و فراگیر ساخته است، اما مجبور شد این آزمایش را تا سال 2016 خاتمه دهد.
در ژانویه 2020، هوش مصنوعی Clearview به دلایل اشتباه ، ناگهان در کانون توجه قرار گرفت. این یک شرکت کمرنگ آمریکایی در زمینه تشخیص چهره، زیر رادار پرواز کرد تا اینکه نیویورک تایمز مطلب افشاگرانه ای را با عنوان «شرکت مخفی که ممکن است به حریم خصوصی آنطور که ما میدانیم پایان دهد» منتشر کرد. مشخص شد که Clearview نرمافزاری را به شرکتها، سازمانهای مجری قانون، دانشگاهها و افراد ارائه میدهد، با الگوریتم خود که چهرههای انسان را با پایگاهدادهای از بیش از سه میلیارد تصویر که از اینترنت نمایهسازی کرده بود، تطبیق میدهد.
این موضوع یک بحث جهانی شدید در مورد استفاده از تشخیص چهره مبتنی بر هوش مصنوعی توسط دولت ها و سازمان های مجری قانون آغاز کرد. اکثر مردم خواستار ممنوعیت هوش مصنوعی Clearview شدند زیرا پایگاه داده خود را با استخراج اینترنت و وب سایت های رسانه های اجتماعی ایجاد کرده بود. در ژانویه 2020، توییتر نامه توقف و حذف را برای این شرکت ارسال کرد و یوتیوب و فیس بوک دنبال کردند. هنگامی که همهگیری کووید-19 در مارس 2020 شیوع پیدا کرد، Clearview فناوری خود را برای استفاده در ردیابی تماس در تلاش برای بازیابی اعتبار و به دست آوردن پذیرش اجتماعی قرار داد. اگرچه هوش مصنوعی Clearview میتوانست با کار به گونهای که طراحی شده بود به مقابله با همهگیری کمک کند، روش جمعآوری دادهها توسط این شرکت باعث ایجاد طوفان اجتماعی شد که مانع استقرار آن در طول بحران جهانی شد.
حتی در حالی که هوش مصنوعی امروز تجارت گسترده تحول دیجیتال را هدایت می کند، در حال تبدیل شدن به موضوع فیل دیجیتال در اتاق است. شرکتها برای مقابله با آینده مبهم، پیچیده، نامطمئن و متزلزل پس از همهگیری، به هوش مصنوعی روی میآورند. علاوه بر فعالسازی اتوماسیون، هوش مصنوعی به کسبوکار کمک میکند تا آینده را پیشبینی کند، تصمیمگیری را با ارائه بینشهای مبتنی بر دادهها بهبود بخشد و با توسعه سناریوهای پیچیده برای موارد غیرمنتظره آماده شود. با توجه به اینکه رهبران بازار تلاش میکنند از هوش مصنوعی در مقیاس بزرگ استفاده کنند، فکر کردن به صنعتی که به نظر نمیرسد هوش مصنوعی آن را تغییر دهد، دشوار است. با این حال، کسب و کار برای شروع با هوش مصنوعی با یک چالش اساسی روبرو است.
بررسیهای ما نشان میدهد که موضوع، فنی نیست. انسان است .و به دلیل تاریخچه تکنولوژی هراسی ما – احتمالاً به سقراط (470-399 قبل از میلاد) برمی گردد، که در مورد نوشتن هشدار داد زیرا “به فراموشی منجر می شود و ذهن را تضعیف می کند” – وقتی انسان ها فناوری هایی را ببینند که مانند آنها رفتار می کند یا تصمیم گیری آنها را تقلید می کند. صاحبان مهارت ها، نگران هستند. همانطور که تعدادی از فیلمها نیز نشان میدهند، ترس و سوء ظن ما یا از این ایده ناشی میشود که هوش مصنوعی فراتر از انتظارات سازندگان خود تکامل مییابد و نسل بشر را ریشهکن میکند، یا احتمال دیگر اینکه برخی از انسانها هوش مصنوعی را برای اهداف شیطانی توسعه دهند. به حرفهای من توجه کنید، هوش مصنوعی بسیار خطرناکتر از سلاحهای هستهای است. ایلان ماسک، بنیانگذار تسلا و اسپیس ایکس، چهار سال پیش در کنفرانس South by Southwest اذعان کرد که من واقعاً کاملاً به لبه برتر هوش مصنوعی نزدیک هستم، و این موضوع من را می ترساند.
استفاده از هوش مصنوعی، که به همان اندازه که باعث ترس می شود، امید ایجاد می کند، بنابراین یک معما برای تجارت ایجاد می کند. این امر با این واقعیت ترکیب شده است که بسیاری از شرکت ها در حال حاضر از اصول هوش مصنوعی مسئول در هنگام توسعه فناوری پیروی می کنند، و آنها تصور می کنند که بیش از حد کافی است. هوش مصنوعی مسئولیتپذیر چارچوبی است که در صورت رعایت آن، شرکتها را قادر میسازد تا سیستمهای هوش مصنوعی را توسعه دهند که ، فراتر از عدالت الگوریتمی و تعصب برای شناسایی اثرات بالقوه این فناوری بر ایمنی، حریم خصوصی و جامعه به نفع خود عمل میکنند. با این حال، پیروی از اصول هوش مصنوعی مسئول برای اطمینان از اینکه استفاده از هوش مصنوعی تنها نتایج قابل قبولی به همراه دارد کافی نیست. به عنوان مثال، مرکز امنیت و فناوری های نوظهور و مشارکت دانشگاه جورج تاون در AI1 اخیراً مطالعه ای را منتشر کرده است که در آن 1200 مورد گزارش شده عمومی از خرابکاری های هوش مصنوعی طی تنها سه سال ثبت شده است.
برخی از مدیران اجرایی، مانند غول های دیجیتالی مانند مایکروسافت و گوگل، از دولت ها خواسته اند تا هوش مصنوعی را تنظیم کنند. حتی با وجود اینکه سیاست گذاران به چالش انجام این کار گام بر می دارند، توسعه هوش مصنوعی قابل اعتماد همچنان در اختیار هر شرکت و دانشمندانی است که الگوریتم ها را می نویسند. در نتیجه، تلاشها برای جلوگیری از پیامدهای منفی ناشی از هوش مصنوعی و پیامدهای پیشبینینشده بر اساس شرکت، کسبوکار و عملکرد متفاوت است، که دور از ایدهآل است. اگر کسب و کار بخواهد از هوش مصنوعی در مقیاس استفاده کند، باید فراتر از مسئولیت در توسعه هوش مصنوعی عمل کند. برای استقرار آن باید تأیید صریح جامعه را دریافت کند. به عبارت دیگر، شرکت ها هیچ گزینه ای جز دریافت مجوز اجتماعی برای هوش مصنوعی ندارند.
تعریف مجوز اجتماعی برای فعالیت
نگرانی های افراد منطقی در مورد هوش مصنوعی دارای طیف گسترده ای است – از نهادینه سازی الگوریتمی درآمد، جنسیت، نژاد و تعصبات جغرافیایی گرفته تا مسائل خصوصی و سیاسی. به همین دلیل است که شرکتها در تلاش برای کنار آمدن با شکاف بین برخورداری از حق قانونی استفاده از هوش مصنوعی، که دارند، و حق اجتماعی برای انجام این کار، که ممکن است آنها نباشند – به طور خلاصه، بین آنچه که کسبوکار میتواند انجام دهد و آنچه که آن را انجام میدهد، تلاش میکنند.
مانند هر فناوری قبلی، هوش مصنوعی مزایا و هزینه هایی را به همراه خواهد داشت. اینکه شرکتها چگونه از این فناوری استفاده میکنند، تعیین میکند که آیا مزایا از هزینهها بیشتر است یا خیر. برای فرونشاندن ترس ها، کسب و کار باید اطمینان حاصل کند که منافع به حداکثر رسیده و هزینه ها به حداقل برسد. نظرسنجی ها نشان می دهد که اکثر مردم معتقدند که باید نظارت بر هوش مصنوعی وجود داشته باشد و شرکت ها باید قوانین رفتاری سختگیرانه ای را در هنگام استفاده از هوش مصنوعی رعایت کنند. سه سال پیش، مرکز مدیریت هوش مصنوعی در دانشگاه آکسفورد دریافت که 82 درصد از پاسخ دهندگان معتقد بودند که هوش مصنوعی باید با دقت مدیریت شود.
مقررات سختی برای هوش مصنوعی در راه است. در ماه مه 2021، اتحادیه اروپا قوانینی را برای استفاده از هوش مصنوعی پیشنهاد کرد که امیدوار است به استاندارد جهانی بالفعل تبدیل شود، همانطور که مقررات حفظ حریم خصوصی داده اتحادیه اروپا، قانون حفاظت از داده های عمومی، پس از اجرایی شدن در می 2018 به استاندارد جهانی حریم خصوصی تبدیل شد. تقریباً در همان زمان، کمیسیون تجارت فدرال ایالات متحده دستورالعمل نادری را صادر کرد که مشخص میکرد استفاده از الگوریتمی که منجر به تبعیض میشود، «عملکردهای غیرمنصفانه یا فریبنده» است که قانون FTC آن را ممنوع کرده است. این سازمان به شرکتها هشدار داد که از جمعآوری دادههای آموزشی برای الگوریتمها به شیوهای گمراهکننده خودداری کنند. آژانس به صراحت هشدار داد: “به خاطر داشته باشید که اگر خود را مسئول ندانید، FTC ممکن است این کار را برای شما انجام دهد.”
بدیهی است که هوش مصنوعی مسئول، که در درجه اول روشی برای مدیریت نقص های فنی هوش مصنوعی است، به اندازه کافی طرفدار ندارد. این اصول، همانطور که ما در BCG در جاهای دیگر بحث کردهایم، مستلزم توسعه هوش مصنوعی است که همدلی، خلاقیت و مراقبت انسانی را ادغام میکند تا اطمینان حاصل شود که برای منافع بیشتر کار میکند. این کار با تعبیه مسئولیت پذیری در تمام سطوح یک سازمان و همچنین در تمام مراحل چرخه عمر یک الگوریتم شروع می شود. حفظ کنترل انسانی در هوش مصنوعی مسئول است. زمانی که مداخله به موقع انسانی امکان پذیر نباشد، خطرات شکست هوش مصنوعی بیشتر است. همچنین مستلزم تعدیل عملکرد تجاری با ایمنی، امنیت و انصاف است.
چندین ذینفع – شرکتهای فناوری مانند مایکروسافت و گوگل، موسسات تحقیقاتی و اندیشکدههایی مانند موسسه اخلاقی، و شرکتهای مشاوره – راههایی را پیشنهاد کردهاند که در آن کسبوکار میتواند هوش مصنوعی را مسئولانه توسعه دهد. متأسفانه، تعداد اصولی که منتشر شدهاند باعث سردرگمی این موضوع میشوند، به خصوص به این دلیل که تفاوت قابلتوجهی در مورد آنچه که هوش مصنوعی مسئول را تشکیل میدهد وجود دارد. همچنین برای شرکتها دشوار است که بفهمند چگونه بین اصول هوش مصنوعی مسئول و اقداماتی که باید انجام دهند پل بزنند. همانطور که یک مقاله اخیر در MIT-SMR اشاره کرد: «اما حتی اگر توافق گسترده ای در مورد اصول زیربنای هوش مصنوعی مسئول وجود داشته باشد، نحوه به کارگیری مؤثر آنها در عمل نامشخص است. سازمانها در حالات مختلف پذیرش هستند، دارای طیف گستردهای از ساختارهای سازمانی داخلی هستند و اغلب هنوز در حال تعیین چارچوبهای حاکمیتی مناسب برای پاسخگویی به خود هستند.»
علاوه بر این، هوش مصنوعی مسئول یک رویکرد عمدتا مبتنی بر فناوری را برای این موضوع نشان می دهد. در واقع، دانشمندان معمولاً روی چالش فنی ایجاد خیر و انصاف در هوش مصنوعی تمرکز میکنند، که بهطور منطقی، انجام آن غیرممکن است مگر اینکه همه انسانها خوب و منصف باشند. علاوه بر این، پاسخ به اخلاقی بودن پاسخ هوش مصنوعی به یک مشکل معمولاً «بستگی دارد». این مشکل کلاسیک ترولی است، که در آن شما نمی توانید کاری انجام دهید و پنج نفر را در یک مسیر بکشید – یا چرخ دستی را منحرف کنید و یک نفر را در مسیر دیگری بکشید. فقط مشخص نیست که کدام گزینه بهتر است.
آنچه ضروری است اتخاذ یک رویکرد کلی و متمرکز بر انسان برای هوش مصنوعی است. همانطور که در مقاله MIT-SMR که قبلا ذکر شد میگوید: «وقتی از مصاحبهشوندگان پرسیده شد که وضعیت آینده ایدهآل چگونه خواهد بود، رویکردی را ترجیح میدهند که به جای واکنش به ریسک، پیشبینی کند. برای دستیابی به آن، سازمان ها به فرآیندهای استاندارد، ارتباطات و شفافیت نیاز دارند.» به همین دلیل است که ما معتقدیم مفهوم مجوز اجتماعی برای هوش مصنوعی مناسب است.
این اصطلاح که برای نماد تأیید جامعه از پروژههایی که بر محیطزیست تأثیر میگذارند – همانطور که در معدن، جنگلداری، ماهیگیری و انرژی رایج است – ابداع شد، به عنوان یک استعاره آغاز شد. جیم کانی، یکی از مدیران شرکت معدنی کانادایی Placer Dome – که سد باطلهاش در یک معدن طلا در فیلیپین فرو ریخت و گل سمی منتشر کرد که یک روستا را مدفون کرد – ممکن است برای اولین بار در سال 1997 در نشست بانک جهانی از آن استفاده کرده باشد. وی خاطرنشان کرد که اگر شرکت های معدنی مجوزهای اجتماعی خود را از دست بدهند، جوامع محلی و ملی در تعطیلی آنها تردید کمی نشان می دهند.
برای جلوگیری از آن، قبل از اینکه یک شرکت در یک صنعت ویران کننده محیط زیست در یک پروژه سرمایه گذاری کند، باید پیامدهای مرتبه اول و دوم را درک کند. در حالی که مقررات بر مدیریت پیامدهای مستقیم – تصاحب زمین، آلودگی محیط زیست و استفاده از آب – نظارت میکنند، اما کافی نیستند. کسب و کار همچنین باید در زیرساخت های فیزیکی جامعه محلی مانند جاده ها، برق و خدمات مخابراتی سرمایه گذاری کند. بهبود دسترسی مردم به آموزش و مراقبت های بهداشتی؛ و فعالیت های اقتصادی را تقویت می کند، بنابراین مردم محلی از وجود آن به طرق مختلف بهره مند می شوند. تنها در این صورت است که شرکت حسن نیت جامعه را برای اجرای پروژه به دست می آورد و حفظ می کند.
به خاطر داشته باشید که مجوز اجتماعی سندی مانند مجوز دولتی نیست. این نوعی پذیرش است که شرکت ها باید از طریق رفتار ثابت و قابل اعتماد و تعامل با سهامداران به دست آورند. بنابراین، مجوز اجتماعی برای هوش مصنوعی یک تصور رایج در جامعه است که یک شرکت حق دارد از این فناوری برای اهداف خاص در بازارهایی که در آن فعالیت می کند استفاده کند. شرکت ها نمی توانند به خود مجوزهای اجتماعی بدهند. همانطور که جان موریسون در سال 2014 استدلال کرد، آنها باید با اثبات اینکه می توانند به آنها اعتماد داشته باشند، آنها را به دست آورند. و از دست دادن مجوز اجتماعی برای فعالیت می تواند عواقب ناگواری داشته باشد، زیرا شرکت های انرژی شل (متهم به آلوده کردن دلتای نیجر) و BP پس از دیپ واتر نشت نفت Horizon در خلیج مکزیک در سال 2010آموخته شد.
برای به دست آوردن مجوز اجتماعی برای استفاده از هوش مصنوعی برای تصمیمگیری، شرکتها باید با ذینفعان – کارمندان، توسعهدهندگان نرمافزار، مصرفکنندگان، و سهامداران و سایرین- همکاری نزدیک داشته باشند تا گفتگو را آغاز کنند. این گفتگوهای دو طرفه بیانگر واکنشها، انگیزهها، مواضع و مخالفتهای گروههای مختلف را تسریع میکند. این امر به مدیران شرکت اجازه می دهد تا درک مشترکی با سهامداران در مورد هر برنامه هوش مصنوعی و نرده های محافظی که باید کاربرد آن را محصور کنند، ایجاد کنند.
سه ستون
برای استفاده از هوش مصنوعی، شرکت ها به مجوز قانونی، در قالب مجوزهای نظارتی و تعهدات قانونی وابسته هستند. مجوز اقتصادی که ناشی از مطالبات سهامداران و مدیران اجرایی باشد. و مجوز اجتماعی یا مطالبات مردم. تنها در این صورت است که جامعه استفاده مداوم از هوش مصنوعی را مجاز خواهد کرد. مطالعات ما نشان می دهد که مجوز اجتماعی برای هوش مصنوعی بر سه پایه استوار است: مسئولیت، منفعت و قرارداد اجتماعی. (نمودار را ببینید.)
مسئوليت
اگر قرار است تجارت در مورد استفاده از هوش مصنوعی به جامعه پاسخگو باشد، باید بتواند نحوه عملکرد الگوریتم های هوش مصنوعی را توجیه کند. اگر برای شروع، مردم درک کنند که الگوریتمهای هوش مصنوعی اخلاقی هستند، شرکتها میتوانند این کار را انجام دهند. تا زمانی که شرکتها الگوریتمهایی را طراحی کنند که تا حد ممکن، هنگام کار، منصفانه و شفاف تلقی شوند، جامعه این عقیده را حفظ خواهد کرد.
اگر نتایج حاصل از استفاده از فناوری به دلیل عوامل جمعیت شناختی مانند سن، جنسیت، موقعیت مکانی یا به دلیل تغییرات در زمینه اقتصادی، اجتماعی یا سیاسی متفاوت نباشد، هوش مصنوعی منصفانه تلقی می شود. به عنوان مثال، شرکتی که از سیستم استخدام مبتنی بر هوش مصنوعی استفاده میکند باید بتواند نشان دهد که همه نامزدهایی که پاسخهای یکسان یا مشابهی را به سؤالی که توسط دستگاه ارائه شده است، یا امتیاز یکسانی را دریافت کردهاند.
جامعه باید برنامه هوش مصنوعی را از نظر عملکرد و نتایج شفاف درک کند. کسب و کار باید تا آنجا که می تواند در مورد طراحی یک الگوریتم باز باشد – درست همانطور که جامعه منبع باز تمام کدهای نرم افزار پیشرفته ای را که توسعه می دهد عمومی می کند. علاوه بر این، مدیران باید بتوانند علیت، مکانیک تصمیم گیری الگوریتم و منطق را توضیح دهند. که ممکن است آسان نباشد. به عنوان مثال، در آگوست 2020، تصمیم دولت بریتانیا برای نمره دادن به دانشآموزان مدرسهای که امتحانات سطح A خود را با یک سیستم مبتنی بر هوش مصنوعی انجام میدهند، فریاد اعتراضی را برانگیخت. این به دلیل عدم شفافیت در مورد نحوه تصمیم گیری الگوریتم برای درجه بندی اتفاق افتاد. در نهایت، دولت بریتانیا چارهای نداشت جز اینکه به دانشگاههای این کشور توصیه کند که نمرات تعیینشده توسط هوش مصنوعی را هنگام اعطای پذیرش کالج نادیده بگیرند.
تصمیمات انسانی ممکن است همیشه منصفانه یا شفاف نباشد. هر تصمیمی دارای سوگیری های آگاهانه و ناخودآگاهی است که به آن شکل می دهد. اما به نظر میرسد جامعه انتظار دارد که هوش مصنوعی، حتی اگر انسانها آن را ایجاد کنند و دادههایی را که مستقیم یا غیرمستقیم تولید میکنند، به آن تغذیه میکنند، همیشه تصمیمهایی منصفانهتر و شفافتر نشان میدهند. همانطور که گیل پرت، مدیر عامل موسسه تحقیقاتی تویوتا در سال 2017 گفت: «آسانسورهای گذشته را به خاطر دارید؟ موتور آنها قبلاً پرسنل بودند، اما با گذشت زمان، آسانسورهای خودکار به طور گسترده پذیرفته شدند. اگر میخواهیم مادری به زندگی فرزندانش با یک ماشین خودکار اعتماد کند، باید اطمینان حاصل کنیم که محصولات ما ایمن هستند و وسایل نقلیه خودکار به طور قابل توجهی بهتر از یک راننده انسانی عمل میکنند. بنابراین، استانداردهای جامعه برای پذیرش تصمیمات الگوریتمی بیشتر از پذیرش تصمیمات انسانی است.
در عین حال، بسیاری از تصمیمات برای جامعه قابل قبول هستند، حتی اگر به شیوه ای خاص گرفته شوند، اگر تصمیم گیرنده بتواند منطقی را بیان کند. منطق مشابهی باید در مورد الگوریتمهای هوش مصنوعی نیز اعمال شود، حتی اگر افراد هوش مصنوعی را با استانداردهای بالاتری حفظ کنند. برای مثال، افرادی که پسانداز خود را به یک شرکت سرمایهگذاری میسپارند، باید فلسفه سرمایهگذاری شرکت و استراتژی آن را درک کنند و ترجیحات تحمل ریسک خود را با مشاوران مالی خود در میان بگذارند. تا زمانی که اهداف سرمایه گذار برآورده می شود، دیگر مهم نیست که معامله گران انسانی یا الگوریتم های هوش مصنوعی معاملات را از طرف مشتری انجام می دهند.
سود و منافع
شرکتها باید اطمینان حاصل کنند که ذینفعان برداشت خود را از این که مزایای استفاده از سیستمهای هوش مصنوعی بیشتر یا حداقل کمتر از هزینههای انجام این کار است، به اشتراک بگذارند. آنها میتوانند مبادلات ملموس و نامشهود را در سطوح فردی، شرکتی و اجتماعی با مقایسه مزایای نتایج حاصل از هوش مصنوعی (مانند افزایش سلامت، راحتی و آسایش در مورد مراقبتهای بهداشتی) با جنبههای منفی احتمالی اندازهگیری کنند. که معمولاً به امنیت، حریم خصوصی و ایمنی مربوط می شود.
برخی از سیستم های مبتنی بر هوش مصنوعی به راحتی مزایای خود را نشان می دهند. به عنوان مثال، برنامه کاربردی هوش مصنوعی Google Translate این مزیت را ارائه میکند که میتواند متن را فوراً به بیش از 100 زبان و با دقت بالا ترجمه کند. هیچ نقطه ضعفی آشکار نیست، اگرچه برخی از مترجمان حرفه ای و کارمندان شرکت های ترجمه ممکن است در نتیجه شغل خود را از دست داده باشند. در سال 2020، گوگل ترنسلیت روزانه بیش از 100 میلیارد کلمه را ترجمه کرد و 500 میلیون کاربر را به خود اختصاص داد. در واقع، استفاده از ترجمه مبتنی بر هوش مصنوعی در حال افزایش است. طبق گزارش Mordor Intelligence در سال 2019، این صنعت تا سال 2025 که به 1 میلیارد دلار خواهد رسید، 11 درصد در سال رشد خواهد کرد.
در موارد دیگر، مزایای هوش مصنوعی ممکن است در مقایسه با هزینه ها بسیار مثبت نباشد، بنابراین ذینفعان باید متقاعد شوند. شرکت تحویل آلمانی DHL را در نظر بگیرید که دو سال پیش یک سیستم مبتنی بر هوش مصنوعی نصب کرد. تمام پالتهایی را که کارمندان در هواپیماهای شرکت بارگیری میکنند اسکن میکند و تعیین میکند که کدام پالتها باید در بالا بارگذاری شوند، زیرا شکننده هستند و کدامها میتوانند زیر آنها بروند. در ابتدا، هوش مصنوعی نمیتوانست مهارت تصمیمگیری انسانی را شکست دهد، اما با گذشت زمان بهتر شد. هوش مصنوعی بسیاری از پالتها را از آسیب نجات داد و به کارمندان DHL اجازه داد کارهای خود را سریعتر انجام دهند، که باعث شد هوش مصنوعی مورد قبول آنها قرار بگیرد.
حکم جامعه همیشه به نفع استفاده از هوش مصنوعی نخواهد بود و کسب و کار باید برای آن آماده باشد. به عنوان مثال، زمانی که همهگیری COVID-19 آغاز شد، کارشناسان مراقبتهای بهداشتی ایده ادغام تمام پایگاههای داده بیماران در اتحادیه اروپا را برای تسریع در ایجاد یک الگوریتم برای کمک به یافتن درمان مطرح کردند. با این حال، برای سیاستگذاران و کارشناسان آشکار نبود که آیا مزایای یافتن راه حل سریعتر از هزینه های نقض حریم خصوصی بیماران و اجازه دادن به کسب و کارها به داده های محرمانه و مطلوب مرتبط با سلامتی بیشتر است و موضوع در آنجا تمام شد.
قرارداد اجتماعی
در نهایت، جامعه باید بپذیرد که شرکتهایی که میخواهند هوش مصنوعی را توسعه دهند، میتوان با استفاده از آن و همچنین به دست آوردن و تجزیه و تحلیل دادههای بیدرنگ برای تغذیه الگوریتمهایشان اعتماد کرد و آنها در قبال تصمیمهای گرفته شده توسط سیستمهای هوش مصنوعی پاسخگو خواهند بود. اعتماد برای پذیرش اجتماعی بسیار مهم است، به ویژه در مواردی که هوش مصنوعی می تواند مستقل از نظارت انسان عمل کند و بر زندگی انسان ها تأثیر بگذارد.
این یکی از دلایلی است که برای مثال، جامعه در تأیید استفاده نامحدود از خودروهای خودران کند بوده است. اتومبیل های خودران احتمالاً ایمن تر از اتومبیل های انسان محور خواهند بود. طبق گزارش NHTSA ایالات متحده، خطای انسانی باعث 93 درصد تصادفات در جاده های ایالات متحده در سال 2020 شده است. اگرچه مردم به خودروسازان فعلی برای ایجاد وسایل نقلیه مکانیکی قابل اعتماد اعتماد دارند، آنها به توانایی آنها در توسعه فناوری های دیجیتال اعتقاد ندارند. به عنوان مثال، فیات کرایسلر در ژوئن 2015 کشف کرد که خودروهایی که به صفحه نمایش لمسی مجهز شده بود، ممکن است مورد حمله هکرها قرار گیرند، که حتی می توانند موتور وسایل نقلیه در حال حرکت را خاموش کنند. این خودروساز مجبور شد برای به روز رسانی نرم افزار و رفع آسیب پذیری، 1.4 میلیون خودرو را فراخوانی کند. علاوه بر این، اعتماد عمومی به وسایل نقلیه خودران به دلیل این واقعیت که شبکههای شرکتهای مخابراتی، که زیرساخت 5G را برای ارتباطات بین انسان و ماشین فراهم میکنند، برای چندین دهه مکرراً هک شدهاند، از بین رفته است.
خودروهای خودران نیز از عدم پاسخگویی رنج می برند. صاحبان وسایل نقلیه نمی دانند چه کسی مسئول تصمیماتی است که اتومبیل های خودران آنها در جاده ها می گیرند. و در صورت بروز حادثه مسئولیت چه کسی خواهد بود؟ دولتها مقرراتی را تنظیم نکردهاند که به وسایل نقلیه خودران اجازه دهد در مقیاس بزرگ کار کنند، بنابراین سازندگان عقد قرارداد برای خودروهای مبتنی بر هوش مصنوعی با جامعه را دشوار میدانند.
کسب مجوز اجتماعی
اگرچه مسیرهایی که کسبوکار میتواند برای دریافت مجوز اجتماعی برای هوش مصنوعی طی کند هنوز مشخص نیست، اولین پستهای راهنما قابل مشاهده هستند. برای یک چیز، رویکرد باید بر اساس مشکلی که هوش مصنوعی با آن مقابله می کند و تعداد ذینفعانی که در این فرآیند دخیل هستند، متفاوت باشد. بنابراین، شناسایی آنهایی که بر اعطای مجوز اجتماعی تأثیر خواهند گذاشت، یک پیش نیاز کلیدی است. گروه های ذینفع ممکن است کم یا زیاد باشند، با اهداف واگرا یا همگرا. در مثال قبلی ما، DHL باید نگران دریافت مجوز اجتماعی برای الگوریتم مرتبسازی پالت خود فقط از کارمندان، اتحادیههای کارگری و سهامداران بود. در مقابل، تسلا باید با تعداد زیادی از سهامداران – مانند مالکان و رانندگان خودرو (مصرف کنندگان) کار کند. دولت های شهر، ایالت و فدرال (تنظیم کننده ها)؛ و جامعه مدنی (منتقدان و مدافعان) – برای دریافت مجوز اجتماعی برای فناوری خودران خود.
به عنوان یک قاعده کلی، رهبران کسب و کار باید در هنگام برخورد با سهامداران دو چیز را در نظر داشته باشند. از یک طرف، یک شرکت باید کمترین شرایط ذینفعان را برای استفاده از هوش مصنوعی شناسایی کند. این امر پایه ای برای هر ستون است. از سوی دیگر، باید بالاترین انتظارات ذینفعان با نفوذ را شناسایی کند که سقف ها را تعیین می کند. سپس مدیران اجرایی باید تعادل پیچیده ای بین آستانه و سقف ستون های اجتماعی و اقتصادی ایجاد کنند. به عنوان مثال، DHL مجبور بود تنش بین افزایش مشاغل کارکنان بدون جایگزین کردن آنها (آستانه) و حداکثر کردن بازده سهامداران (سقف) را متعادل کند.
علاوه بر این، هر سازمانی بسته به تاریخچه، جغرافیا و توانایی های فعلی خود در زمینه متفاوتی فعالیت می کند. هنگامی که مدیران نقطه شروع شرکت خود را مشخص کردند، می توانند هفت گام برای دریافت مجوز اجتماعی بردارند.
تمام هزینه ها و منافع را به اشتراک بگذارید.
در ابتدا، شرکت ها باید تمام مزایای احتمالی هوش مصنوعی و همچنین تمام جنبه های منفی احتمالی را برای ذینفعان توضیح دهند. مهم است که با هر گروه تماس بگیرید و با آنها صحبت کنید نه اینکه اطلاعات را با چاپ دقیق در انتهای یک وب سایت دفن کنید.
کسب و کارها نباید از توصیف آشکار خطرات هوش مصنوعی خودداری کنند، اما در عین حال باید توضیح دهند که چگونه با آنها مقابله خواهند کرد. برای مثال، Google با انتشار و بهروزرسانی دورهای سند خود خطمشیها و اصول هوش مصنوعی در Google، تعهدی را در سراسر سازمان برای تضمین استفاده ایمن، منصفانه و بیطرفانه از هوش مصنوعی به اشتراک میگذارد. یکی از اولین شرکت هایی که این عمل را آغاز کرد، گوگل به طور عمومی مرزهای اخلاقی مربوط به استفاده از هوش مصنوعی در محصولات خود را مشخص می کند. انجام این کار یک مرجع عمومی برای هرکسی که میخواهد از شرکت انتقاد کند، در صورتی که معتقد است گوگل از قوانین خودش پیروی نمیکند، فراهم میکند. این همان چیزی است که گوگل قصد داشت: آنها [«سیاستها و اصول»] به ما اجازه نمیدهند – و نباید – به ما اجازه دهند مکالمات سخت را کنار بگذاریم، بلکه به آنها اجازه میدهند آنها را شروع کنیم.
BCG در خصوص عملکرد CO2 AI، یک راه حل مبتنی بر هوش مصنوعی که به سازمان ها در شبیه سازی، اندازه گیری و ردیابی ردپای محیطی خود کمک می کند، از همین منطق پیروی کرد.
جعبه سیاه را باز کنید.
اکثر شرکتها تخصص لازم برای ساخت هوش مصنوعی را به گونهای توسعه ندادهاند که به کاربران توضیح دهد که الگوریتمها دقیقاً چگونه کار میکنند بدون اینکه چیز زیادی به رقبا بدهند. مدیران عامل باید مشارکت با مبتکرانی مانند استارتاپهای هوش مصنوعی، غولهای دیجیتال، اتاقهای فکر و دانشمندان را در نظر بگیرند تا اکوسیستمهایی را توسعه دهند که به آنها در درک پیشرفتهای توسعه هوش مصنوعی کمک کند.
برای مثال، دانشمندان در حال تلاش برای ایجاد هوش مصنوعی قابل توضیح هستند – یعنی الگوریتمهایی که میتوانند یک تصمیم و همچنین توضیح پشتیبان ارائه دهند، اما بدون اینکه دقت اولی را به خاطر دومی قربانی کنند. تمرکز روی همبستگی نیست؛ در عوض، جستجو برای «زیرا» است – توضیحی در مورد اینکه چرا این تصمیم برای برنامه هوش مصنوعی منطقی بود. به طور مشابه، هوش مصنوعی علی ( علت) عواملی را در یک الگوریتم شناسایی میکند که منجر به رفتارها یا نتایج خاصی میشود، و آزمایش میکند که چه چیزی آنها را تغییر میدهد. در مقاله بررسی نوآوری اجتماعی استنفورد در سال 2020، نویسندگان این واقعیت را برجسته میکنند که هوش مصنوعی علّی میتواند به جلوگیری از اشتباهاتی کمک کند که وقتی افراد و برنامههای هوش مصنوعی ایجاد میکنند، زمینهها را نادیده میگیرند یا همبستگی را برای علیت اشتباه میکنند. این نوعی تحقیق است که کسبوکارها میتوانند از آن بهره ببرند، بنابراین شرکتها باید اکوسیستمهای هوش مصنوعی را توسعه دهند که به آنها کمک کند از همان ابتدا به آن دسترسی داشته باشند.
مکانیزم های نادیده گرفتن را توسعه دهید.
زمانی که شرکتها به هوش مصنوعی وابسته هستند، نتایج غیرمنتظرهای که پیامدهای منفی دارند، امکانپذیر است، بنابراین باید پیشگیرانه برای جلوگیری از آنها اقدام کنند. با شناخت محدودیت های الگوریتم ها، کسب و کار باید زمین بازی را به دقت تعریف کند. انجام این کار اطمینان حاصل می کند که هوش مصنوعی یاد می گیرد استثناهایی را که نمی تواند آنها را پردازش کند علامت گذاری کند و مداخلات غیرمستقیم انسانی را برای مقابله با آنها توصیه کند. غیرممکن است که بدون مکانیسم های تعدیل کننده داخلی این اتفاق بیفتد.
به عنوان مثال، در مارس 2020، مکانیسمهای امنیت سایبری مبتنی بر هوش مصنوعی یکی از فروشگاههای مواد غذایی آنلاین برتر بریتانیا به طور ناگهانی کل وبسایت را تعطیل کرد. این افزایش تقاضای بیسابقه مرتبط با COVID-19 را با حمله انکار سرویس توزیع شده اشتباه گرفته بود. مهندسی روش برای نظارت و مدیریت پاسخ رفع خرابی سیستم به خردهفروش بریتانیایی کمک میکرد تا بهتر با این وضعیت کنار بیاید، درآمد بیشتری کسب کند، و مانند آن روز با تمام مشتریان خود مخالفت نکند.
اولویت بندی مدیریت ریسک استفاده از هوش مصنوعی مانند هر تصمیم تجاری دیگری خطرناک است. طبق نظرسنجی Clifford Chance از اعضای هیئت مدیره سه سال پیش، در حالی که 88٪ از پاسخ دهندگان به توانایی خود برای مقابله با خطرات مرتبط با هوش مصنوعی ابراز اطمینان کردند، 46٪ هیچ اقدامی انجام نداده بودند. شرکتها باید یاد بگیرند که خطرات مرتبط با هوش مصنوعی را با نقشهبرداری و ارزیابی سیستماتیک کاهش دهند. آنها باید عناصر ذاتی ریسک – مانند شدت و احتمال آن – و همچنین زمینه را بررسی کنند، مانند محیط نظارتی و استراتژی های کلی مدیریت ریسک آنها.
مدیریت ریسک مرتبط با هوش مصنوعی با مدیریت ریسکهای دیگر، مانند خطای انسانی یا کلاهبرداری کارکنان تفاوت چندانی ندارد، بنابراین مدبران ارشد ریسک باید سطوح ریسک قانونی، مالی، اعتباری و فیزیکی را که شرکتهایشان مایل به پذیرش آن هستند، تعیین کنند. آنها باید در مراحل اولیه استفاده از هوش مصنوعی این کار را انجام دهند. همانطور که CRO Zalando، شرکت تجارت الکترونیک مستقر در برلین، در سپتامبر 2020 نوشت: “با تشخیص ارتباط مدیریت ریسک مناسب برای هوش مصنوعی و یادگیری ماشینی به عنوان شرط لازم موفقیت پایدار، CRO تلاش خواهد کرد آنرا تا به دست آورد. تیمهای او در مراحل اولیه در بحث پیرامون ابزارها و راهحلهای هوش مصنوعی شرکت داشتند، زیرا تنها با بخشی از راهحل (که در ابتدا) موجود است ، مدیریت ریسک به عنوان بخشی از مشکل تلقی نمیشود .
مسئول پیامدهای نیروی کار باشید.
در همان ابتدا، شرکتها باید مسائل مربوط به اشتغال را که با استفاده از هوش مصنوعی در مقیاس به وجود میآیند، پیشبینی کنند. این تنها راهی است که آنها می توانند پیشگیرانه با پیامدهای اجتماعی مقابله کنند. آنها باید شکافها و مازادهایی را که با استفاده سازمان از هوش مصنوعی در نیروی کار ایجاد میشود شناسایی کنند و پیشبینیهایی را برای کارکردهای شغلی که بیشتر تحت تأثیر گسترش هوش مصنوعی هستند، توسعه دهند. کسبوکار باید هر زمان که ممکن است برای پر کردن موقعیتهای جدید، کارمندان آسیبدیده را ارتقا داده و دوباره مهارت دهد و در عین حال در مورد پیامدهایی که استفاده از هوش مصنوعی برای جبران خسارت خواهد داشت، شفاف باشد. همچنین باید به دنبال موقعیت هایی در خارج از سازمان برای کارمندانی بگردند که امکان بازآموزی وجود نداشته باشد و شغل آنها از بین برود.
در عصر هوش مصنوعی، شرکت ها یک تعهد اخلاقی جدید دارند: آنها باید به عنوان ارائه دهندگان آموزش مستمر کارکنان خدمت کنند. با توجه به سرعت تغییر فناوری، حتی فارغ التحصیلان تازه وارد به زودی باید مهارت های هوش مصنوعی خود را ارتقا دهند. بعید است که روشهای آموزشی سنتی کافی باشد، بنابراین شرکتها باید نقشی کلیدی در حصول اطمینان از اینکه نیروی کارشان بهروز میمانند، ایفا کنند. به عنوان مثال، گروه OCP مراکش – یکی از بزرگترین معدنچیان سنگ فسفات در جهان، تولید کنندگان اسید فسفریک و تولید کنندگان کودهای فسفاته – با دانشگاه پلی تکنیک محمد ششم این کشور و همچنین Ecole des Mines، Ecole Polytechnique، دانشگاه MIT، و École Polytechnique Fédérale de Lozanne، برای افتتاح چندین برنامه تحصیلات تکمیلی و اجرایی برای مدیریت هوش مصنوعی در کشور همکاری کرده است. همچنین نسل جدیدی از مدارس کدنویسی را در Benguerir و Khouribga ایجاد کرده است، جایی که کارکنان OCP و افراد محلی می توانند مهارت های دیجیتال خود را تقویت کنند.
این خبر را پخش کنید.
شرکت هایی که از هوش مصنوعی استفاده می کنند باید همه کارکنان خود را در مورد این فناوری آموزش دهند. سطح درک در حال حاضر به طور قابل توجهی در بین توابع متفاوت است، که یک چالش بزرگ است. بر اساس نظرسنجی BCG-MIT 2020 AI، 67 درصد از کارمندانی که هوش مصنوعی را درک نمی کنند، به تصمیمات مبتنی بر هوش مصنوعی اعتماد ندارند، در حالی که این تعداد در میان کارمندان تنها 23 درصد است که با این فناوری مقابله می کنند. شرکت انرژی اسپانیایی Repsol با درک نیاز به آموزش هوش مصنوعی به کارکنان، یک مدرسه داده داخلی ایجاد کرده است که در آن برنامه های درسی هوش مصنوعی و داده ها برای هر کارمند تنظیم می شود. این شرکت به سرعت در حال تبدیل شدن به یک سازمان مبتنی بر داده است و در تلاش است تا تمامی کارکنان خود را مجدداً مهارت و مهارت دهد تا اطمینان حاصل شود که هیچ یک از آنها عقب نمانند.
از آنجایی که اعتماد بر توانایی تعامل موفقیت آمیز با هوش مصنوعی تأثیر می گذارد، آموزش جامعه عامل موفقیت کلیدی برای استفاده از هوش مصنوعی در مقیاس خواهد بود. به منظور افزایش احتمال دریافت مجوز اجتماعی برای هوش مصنوعی، شرکت ها بدیهی است که باید از کارمندان فراتر رفته و به مشتریان، سهامداران، جامعه مدنی و عموم مردم در مورد مزایا و معایب هوش مصنوعی آموزش دهند.
به شکل گیری دنیای هوش مصنوعی کمک کنید.
به نظر میرسد فناوریهای دیجیتال که توسط هوش مصنوعی هدایت میشوند، جهان و آینده کار را تغییر خواهند داد. طبق گزارش مجمع جهانی اقتصاد آینده مشاغل 2020: «در دو سال آینده (تا سال 2022)، انتظار میرود که 42 درصد از مهارتهای اصلی مورد نیاز برای انجام مشاغل موجود تغییر کند» و «85 میلیون شغل جابجا خواهد شد». اگر این اتفاق بیفتد، ثابت خواهد شد که یک اختلال اقتصادی، فناوری و اجتماعی در مقیاسی مشابه انقلابهای صنعتی اول و دوم قرن هجدهم است. به جای اینکه کورکورانه هوش مصنوعی را پیش ببریم و تنها بر روی حداکثر کردن سود با این فناوری تمرکز کنیم، کسب و کار بهتر است نقش فعالی در کمک به دولت ها، مردم و جامعه برای درک فناوری و کاهش تأثیر آن بر انسان ایفا کند.
شرکتها باید با سیاستگذاران همکاری کنند تا یک اکوسیستم تجاری با هوش مصنوعی در هسته آن بسازند. آنها باید از هر فرصتی برای کمک به طراحی مقرراتی استفاده کنند که استفاده از هوش مصنوعی را گسترش داده و تأثیر آن را میانجیگری کند. قانونگذاران همیشه همگام شدن با فناوری را دشوار میدانند. آنها از کمک رهبران کسب و کار برای شناسایی سیاست های مرتبط با هوش مصنوعی که نوآوری، تخریب خلاقانه، تأثیر اقتصادی آن و عدالت اجتماعی را متعادل می کند، استقبال خواهند کرد. نتیجه آن یک برد-برد خواهد بود. شرکتها از هوش مصنوعی منطبق با مقررات آینده بهره خواهند برد و تنظیمکنندهها به سرعت بخشیدن به سرعت کسب مجوز اجتماعی برای هوش مصنوعی به کسبوکار کمک خواهند کرد.
برای کمی بیش از دو دهه، از زمانی که رسوایی های انرون، ورلد کام و تایکو فوران کردند، کسب و کار به طور پیوسته اعتبار خود را از دست داده است. با توجه به عدم مسئولیت اجتماعی شرکتها و آسیبهای زیستمحیطی که وارد کردهاند، تعجبآور نیست. بسیاری از مردم، به ویژه در اقتصادهای توسعه یافته، متقاعد شده اند که به دلیل اقدامات بی امان برای به حداکثر رساندن سود، کسب و کار تقریباً مشروعیت اجتماعی خود را از دست می دهد – مهر تأییدی که جامعه به شرکت ها می دهد و این تصور را می پذیرد که اقدامات سودجویانه آنها. با توجه به ارزش ها، هنجارها و باورهای انسانی به طور گسترده مناسب و مطلوب هستند. علیرغم تاریخ طولانی سرمایه داری، آنها بر این باورند که روزی دور نیست که هر شرکتی اگر بخواهد در تجارت بماند، نیاز به بازپس گیری مجوز اجتماعی خود داشته باشد.
به همین ترتیب، شرکت ها باید بدانند که استفاده از هوش مصنوعی، صرف نظر از اینکه چقدر مسئولانه طراحی شده باشد و چقدر دقیق آزمایش شود، به طور خودکار توسط جامعه پذیرفته نخواهد شد. رعایت قوانین و مقررات مصوب دولت کافی نخواهد بود. که فقط یک عامل بهداشتی است. کسبوکار ممکن است از حق قانونی استفاده از هوش مصنوعی برخوردار باشد، اما اگر میخواهد هوش مصنوعی را در مقیاس بزرگ به کار گیرد، باید از همه ذینفعان مجوز اجتماعی دریافت کند.