نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

1 اردیبهشت 1403 1:22 ب.ظ

چرا هوش مصنوعی به مجوز اجتماعی نیاز دارد؟

22 فوریه 2022

توسط فرانسوا کاندلون، رودولف شارم دی کارلو و استیون میلز

Why AI Needs a Social Licens

اگر کسب‌وکار می‌خواهد از هوش مصنوعی در مقیاس استفاده کند، پیروی از دستورالعمل‌های فنی برای توسعه مسئولانه هوش مصنوعی کافی نیست. برای استقرار این فناوری باید تأیید صریح جامعه را دریافت کند.

شش سال پیش، در مارس 2016، شرکت مایکروسافت یک چت بات آزمایشی مبتنی بر هوش مصنوعی به نام TayTweets را راه اندازی کرد که مدیریت توییتر آن @TayandYou بود. Tay که مخفف عبارت «در مورد تو فکر می‌کنم» از یک دختر 19 ساله آمریکایی تقلید کرده است، بنابراین این غول دیجیتال می‌تواند سرعت یادگیری هوش مصنوعی را هنگام تعامل با انسان‌ها نشان دهد. تای با توجه به توصیف آن به عنوان “هوش مصنوعی با سرمای صفر” شروع به پاسخ گستاخانه به کاربران توییتر کرد . هر چند برخی از موضوعات خارج از محدودیت بودند. مایکروسافت به تای آموزش داده بود که در مورد مسائل اجتماعی مانند زندگی سیاه پوستان  ، مهم است اظهار نظر نکند.

به زودی، گروهی از کاربران توییتر، تای را با رگباری از توییت‌ها درباره موضوعات بحث‌برانگیز مانند هولوکاست و گیم‌رگیت هدف قرار دادند. آن‌ها ربات چت را وادار کردند تا با پاسخ‌های نژادپرستانه و جنسی پاسخ دهد و از قابلیت تکرار پس از من آن بهره‌برداری کند. مایکروسافت با درک اینکه Tay مانند واتسون IBM که پس از مطالعه فرهنگ لغت آنلاین Urban شروع به استفاده از فحاشی کرد، واکنش نشان می‌دهد، به سرعت اولین توییت‌های تحریک‌آمیز را حذف کرد. کمتر از 16 ساعت و بیش از 100000 توییت بعد، غول دیجیتال Tay را تعطیل کرد. اگرچه مایکروسافت یکی از پیشگامان و پیروان اصول “هوش مصنوعی مسئول” در توسعه الگوریتم است، Tay یک فاجعه روابط عمومی بود. و منتقدان، به طرز شومی، مشکل را اینگونه می‌دانستند که «هوش مصنوعی در بدترین حالت و تنها در آغاز راه است».

دو سال قبل، آمازون بی سر و صدا یک الگوریتم هوش مصنوعی ساخت که می توانست درخواست های شغلی را در مقیاس پنج درجه ای بررسی و رتبه بندی کند. هدف این بود که تعداد زیادی رزومه دریافتی را بررسی کند و امیدوارکننده‌ترین نامزدها را شناسایی کند. این خرده فروش 500 مدل برای تجزیه و تحلیل متقاضیان برای هر شغل بر اساس مکان ایجاد کرد و به الگوریتم یاد داد که بیش از 50000 اصطلاحی را که در برنامه‌ها و رزومه‌هایی که در گذشته دریافت کرده بود شناسایی کند. این فرآیند به هوش مصنوعی کمک کرد تا وزن کمی را به مهارت‌های عمومی، مانند تعداد زبان‌های رایانه‌ای که یک برنامه‌نویس می‌داند، اختصاص دهد.

اما با گذشت زمان، آمازون متوجه این واقعیت شد که هوش مصنوعی نامزدها را به روشی خنثی رتبه‌بندی نمی‌کند. بیشتر مردان را توصیه می کند. این شرکت این الگوریتم را روی درخواست‌های ارسال شده به شرکت در طول یک دهه آموزش داده بود و بیشتر آن متقاضیان مرد بودند. بنابراین هوش مصنوعی دریافت که کاندیداهای مرد ارجحیت دارند. رزومه‌هایی را که شامل کلماتی مانند «زن» یا «زنان» می‌شد رد می‌کرد، مانند «کالج زنان» یا «برنده مدال طلای زنان». تیم توسعه هوش مصنوعی برنامه را ویرایش کرد تا آن را از نظر جنسیتی خنثی کند، اما نمی‌توانست تضمین کند که الگوریتم راه‌های دیگری برای تبعیض علیه زنان پیدا نمی‌کند. اگرچه آمازون یکی از اعضای مشارکت در زمینه هوش مصنوعی است و فکر می‌کرد که الگوریتمی منصفانه و فراگیر ساخته است، اما مجبور شد این آزمایش را تا سال 2016 خاتمه دهد.

در ژانویه 2020، هوش مصنوعی Clearview به دلایل اشتباه ، ناگهان در کانون توجه قرار گرفت. این یک شرکت کم‌رنگ آمریکایی در زمینه تشخیص چهره، زیر رادار پرواز کرد تا اینکه نیویورک تایمز مطلب افشاگرانه ای را با عنوان «شرکت مخفی که ممکن است به حریم خصوصی آنطور که ما می‌دانیم پایان دهد» منتشر کرد. مشخص شد که Clearview نرم‌افزاری را به شرکت‌ها، سازمان‌های مجری قانون، دانشگاه‌ها و افراد ارائه می‌دهد، با الگوریتم خود که چهره‌های انسان را با پایگاه‌داده‌ای از بیش از سه میلیارد تصویر که از اینترنت نمایه‌سازی کرده بود، تطبیق می‌دهد.

این موضوع یک بحث جهانی شدید در مورد استفاده از تشخیص چهره مبتنی بر هوش مصنوعی توسط دولت ها و سازمان های مجری قانون آغاز کرد. اکثر مردم خواستار ممنوعیت هوش مصنوعی Clearview شدند زیرا پایگاه داده خود را با استخراج اینترنت و وب سایت های رسانه های اجتماعی ایجاد کرده بود. در ژانویه 2020، توییتر نامه توقف و حذف را برای این شرکت ارسال کرد و یوتیوب و فیس بوک دنبال کردند. هنگامی که همه‌گیری کووید-19 در مارس 2020 شیوع پیدا کرد، Clearview فناوری خود را برای استفاده در ردیابی تماس در تلاش برای بازیابی اعتبار و به دست آوردن پذیرش اجتماعی قرار داد. اگرچه هوش مصنوعی Clearview می‌توانست با کار به گونه‌ای که طراحی شده بود به مقابله با همه‌گیری کمک کند، روش جمع‌آوری داده‌ها توسط این شرکت باعث ایجاد طوفان اجتماعی شد که مانع استقرار آن در طول بحران جهانی شد.

حتی در حالی که هوش مصنوعی امروز تجارت گسترده تحول دیجیتال را هدایت می کند، در حال تبدیل شدن به موضوع فیل دیجیتال در اتاق است. شرکت‌ها برای مقابله با آینده مبهم، پیچیده، نامطمئن و متزلزل پس از همه‌گیری، به هوش مصنوعی روی می‌آورند. علاوه بر فعال‌سازی اتوماسیون، هوش مصنوعی به کسب‌وکار کمک می‌کند تا آینده را پیش‌بینی کند، تصمیم‌گیری را با ارائه بینش‌های مبتنی بر داده‌ها بهبود بخشد و با توسعه سناریوهای پیچیده برای موارد غیرمنتظره آماده شود. با توجه به اینکه رهبران بازار تلاش می‌کنند از هوش مصنوعی در مقیاس بزرگ استفاده کنند، فکر کردن به صنعتی که به نظر نمی‌رسد هوش مصنوعی آن را تغییر دهد، دشوار است. با این حال، کسب و کار برای شروع با هوش مصنوعی با یک چالش اساسی روبرو است.

بررسی‌های ما نشان می‌دهد که موضوع، فنی نیست. انسان است .و به دلیل تاریخچه تکنولوژی هراسی ما – احتمالاً به سقراط (470-399 قبل از میلاد) برمی گردد، که در مورد نوشتن هشدار داد زیرا “به فراموشی منجر می شود و ذهن را تضعیف می کند” – وقتی انسان ها فناوری هایی را ببینند که مانند آنها رفتار می کند یا تصمیم گیری آنها را تقلید می کند. صاحبان مهارت ها،  نگران هستند. همانطور که تعدادی از فیلم‌ها نیز نشان می‌دهند، ترس و سوء ظن ما یا از این ایده ناشی می‌شود که هوش مصنوعی فراتر از انتظارات سازندگان خود تکامل می‌یابد و نسل بشر را ریشه‌کن می‌کند، یا احتمال دیگر اینکه برخی از انسان‌ها هوش مصنوعی را برای اهداف شیطانی توسعه دهند. به حرف‌های من توجه کنید، هوش مصنوعی بسیار خطرناک‌تر از سلاح‌های هسته‌ای است. ایلان ماسک، بنیانگذار تسلا و اسپیس ایکس، چهار سال پیش در کنفرانس South by Southwest اذعان کرد که من واقعاً کاملاً به لبه برتر هوش مصنوعی نزدیک هستم، و این موضوع من را می ترساند.

استفاده از هوش مصنوعی، که به همان اندازه که باعث ترس می شود، امید ایجاد می کند، بنابراین یک معما برای تجارت ایجاد می کند. این امر با این واقعیت ترکیب شده است که بسیاری از شرکت ها در حال حاضر از اصول هوش مصنوعی مسئول در هنگام توسعه فناوری پیروی می کنند، و آنها تصور می کنند که  بیش از حد کافی است. هوش مصنوعی مسئولیت‌پذیر چارچوبی است که در صورت رعایت آن، شرکت‌ها را قادر می‌سازد تا سیستم‌های هوش مصنوعی را توسعه دهند که  ، فراتر از عدالت الگوریتمی و تعصب برای شناسایی اثرات بالقوه این فناوری بر ایمنی، حریم خصوصی و جامعه به نفع خود عمل می‌کنند. با این حال، پیروی از اصول هوش مصنوعی مسئول برای اطمینان از اینکه استفاده از هوش مصنوعی تنها نتایج قابل قبولی به همراه دارد کافی نیست. به عنوان مثال، مرکز امنیت و فناوری های نوظهور و مشارکت دانشگاه جورج تاون در AI1 اخیراً مطالعه ای را منتشر کرده است که در آن 1200 مورد گزارش شده عمومی از خرابکاری های هوش مصنوعی طی تنها سه سال ثبت شده است.

برخی از مدیران اجرایی، مانند غول های دیجیتالی مانند مایکروسافت و گوگل، از دولت ها خواسته اند تا هوش مصنوعی را تنظیم کنند. حتی با وجود اینکه سیاست گذاران به چالش انجام این کار گام بر می دارند، توسعه هوش مصنوعی قابل اعتماد همچنان در اختیار هر شرکت و دانشمندانی است که الگوریتم ها را می نویسند. در نتیجه، تلاش‌ها برای جلوگیری از پیامدهای منفی ناشی از هوش مصنوعی و پیامدهای پیش‌بینی‌نشده بر اساس شرکت، کسب‌وکار و عملکرد متفاوت است، که دور از ایده‌آل است. اگر کسب و کار بخواهد از هوش مصنوعی در مقیاس استفاده کند، باید فراتر از مسئولیت در توسعه هوش مصنوعی عمل کند. برای استقرار آن باید تأیید صریح جامعه را دریافت کند. به عبارت دیگر، شرکت ها هیچ گزینه ای جز دریافت مجوز اجتماعی برای هوش مصنوعی ندارند.

تعریف مجوز اجتماعی برای فعالیت

نگرانی های افراد منطقی در مورد هوش مصنوعی دارای طیف گسترده ای است – از نهادینه سازی الگوریتمی درآمد، جنسیت، نژاد و تعصبات جغرافیایی گرفته تا مسائل خصوصی و سیاسی. به همین دلیل است که شرکت‌ها در تلاش برای کنار آمدن با شکاف بین برخورداری از حق قانونی استفاده از هوش مصنوعی، که دارند، و حق اجتماعی برای انجام این کار، که ممکن است آن‌ها نباشند – به طور خلاصه، بین آنچه که کسب‌وکار می‌تواند انجام دهد و آنچه که آن را انجام می‌دهد، تلاش می‌کنند.

مانند هر فناوری قبلی، هوش مصنوعی مزایا و هزینه هایی را به همراه خواهد داشت. اینکه شرکت‌ها چگونه از این فناوری استفاده می‌کنند، تعیین می‌کند که آیا مزایا  از هزینه‌ها بیشتر است یا خیر. برای فرونشاندن ترس ها، کسب و کار باید اطمینان حاصل کند که منافع به حداکثر رسیده و هزینه ها به حداقل برسد. نظرسنجی ها نشان می دهد که اکثر مردم معتقدند که باید نظارت بر هوش مصنوعی وجود داشته باشد و شرکت ها باید قوانین رفتاری سختگیرانه ای را در هنگام استفاده از هوش مصنوعی رعایت کنند. سه سال پیش، مرکز مدیریت هوش مصنوعی در دانشگاه آکسفورد دریافت که 82 درصد از پاسخ دهندگان معتقد بودند که هوش مصنوعی باید با دقت مدیریت شود.

مقررات سختی برای هوش مصنوعی در راه است. در ماه مه 2021، اتحادیه اروپا قوانینی را برای استفاده از هوش مصنوعی پیشنهاد کرد که امیدوار است به استاندارد جهانی بالفعل تبدیل شود، همانطور که مقررات حفظ حریم خصوصی داده اتحادیه اروپا، قانون حفاظت از داده های عمومی، پس از اجرایی شدن در می 2018 به استاندارد جهانی حریم خصوصی تبدیل شد. تقریباً در همان زمان، کمیسیون تجارت فدرال ایالات متحده دستورالعمل نادری را صادر کرد که مشخص می‌کرد استفاده از الگوریتمی که منجر به تبعیض می‌شود، «عملکردهای غیرمنصفانه یا فریبنده» است که قانون FTC آن را ممنوع کرده است. این سازمان به شرکت‌ها هشدار داد که از جمع‌آوری داده‌های آموزشی برای الگوریتم‌ها به شیوه‌ای گمراه‌کننده خودداری کنند. آژانس به صراحت هشدار داد: “به خاطر داشته باشید که اگر خود را مسئول ندانید، FTC ممکن است این کار را برای شما انجام دهد.”

بدیهی است که هوش مصنوعی مسئول، که در درجه اول روشی برای مدیریت نقص های فنی هوش مصنوعی است، به اندازه کافی طرفدار ندارد. این اصول، همانطور که ما در BCG در جاهای دیگر بحث کرده‌ایم، مستلزم توسعه هوش مصنوعی است که همدلی، خلاقیت و مراقبت انسانی را ادغام می‌کند تا اطمینان حاصل شود که برای منافع بیشتر کار می‌کند. این کار با تعبیه مسئولیت پذیری در تمام سطوح یک سازمان و همچنین در تمام مراحل چرخه عمر یک الگوریتم شروع می شود. حفظ کنترل انسانی در هوش مصنوعی مسئول است. زمانی که مداخله به موقع انسانی امکان پذیر نباشد، خطرات شکست هوش مصنوعی بیشتر است. همچنین مستلزم تعدیل عملکرد تجاری با ایمنی، امنیت و انصاف است.

چندین ذینفع – شرکت‌های فناوری مانند مایکروسافت و گوگل، موسسات تحقیقاتی و اندیشکده‌هایی مانند موسسه اخلاقی، و شرکت‌های مشاوره – راه‌هایی را پیشنهاد کرده‌اند که در آن کسب‌وکار می‌تواند هوش مصنوعی را مسئولانه توسعه دهد. متأسفانه، تعداد اصولی که منتشر شده‌اند باعث سردرگمی این موضوع می‌شوند، به خصوص به این دلیل که تفاوت قابل‌توجهی در مورد آنچه که هوش مصنوعی مسئول را تشکیل می‌دهد وجود دارد. همچنین برای شرکت‌ها دشوار است که بفهمند چگونه بین اصول هوش مصنوعی مسئول و اقداماتی که باید انجام دهند پل بزنند. همانطور که یک مقاله اخیر در MIT-SMR اشاره کرد: «اما حتی اگر توافق گسترده ای در مورد اصول زیربنای هوش مصنوعی مسئول وجود داشته باشد، نحوه به کارگیری مؤثر آنها در عمل نامشخص است. سازمان‌ها در حالات مختلف پذیرش هستند، دارای طیف گسترده‌ای از ساختارهای سازمانی داخلی هستند و اغلب هنوز در حال تعیین چارچوب‌های حاکمیتی مناسب برای پاسخگویی به خود هستند.»

علاوه بر این، هوش مصنوعی مسئول یک رویکرد عمدتا مبتنی بر فناوری را برای این موضوع نشان می دهد. در واقع، دانشمندان معمولاً روی چالش فنی ایجاد خیر و انصاف در هوش مصنوعی تمرکز می‌کنند، که به‌طور منطقی، انجام آن غیرممکن است مگر اینکه همه انسان‌ها خوب و منصف باشند. علاوه بر این، پاسخ به اخلاقی بودن پاسخ هوش مصنوعی به یک مشکل معمولاً «بستگی دارد». این مشکل کلاسیک ترولی است، که در آن شما نمی توانید کاری انجام دهید و پنج نفر را در یک مسیر بکشید – یا چرخ دستی را منحرف کنید و یک نفر را در مسیر دیگری بکشید. فقط مشخص نیست که کدام گزینه بهتر است.

آنچه ضروری است اتخاذ یک رویکرد کلی و متمرکز بر انسان برای هوش مصنوعی است. همانطور که در مقاله MIT-SMR که قبلا ذکر شد می‌گوید: «وقتی از مصاحبه‌شوندگان پرسیده شد که وضعیت آینده ایده‌آل چگونه خواهد بود، رویکردی را ترجیح می‌دهند که به جای واکنش به ریسک، پیش‌بینی کند. برای دستیابی به آن، سازمان ها به فرآیندهای استاندارد، ارتباطات و شفافیت نیاز دارند.» به همین دلیل است که ما معتقدیم مفهوم مجوز اجتماعی برای هوش مصنوعی مناسب است.

این اصطلاح که برای نماد تأیید جامعه از پروژه‌هایی که بر محیط‌زیست تأثیر می‌گذارند – همانطور که در معدن، جنگل‌داری، ماهیگیری و انرژی رایج است – ابداع شد، به عنوان یک استعاره آغاز شد. جیم کانی، یکی از مدیران شرکت معدنی کانادایی Placer Dome – که سد باطله‌اش در یک معدن طلا در فیلیپین فرو ریخت و گل سمی منتشر کرد که یک روستا را مدفون کرد – ممکن است برای اولین بار در سال 1997 در نشست بانک جهانی از آن استفاده کرده باشد. وی خاطرنشان کرد که اگر شرکت های معدنی مجوزهای اجتماعی خود را از دست بدهند، جوامع محلی و ملی در تعطیلی آنها تردید کمی نشان می دهند.

برای جلوگیری از آن، قبل از اینکه یک شرکت در یک صنعت ویران کننده محیط زیست در یک پروژه سرمایه گذاری کند، باید پیامدهای مرتبه اول و دوم را درک کند. در حالی که مقررات بر مدیریت پیامدهای مستقیم – تصاحب زمین، آلودگی محیط زیست و استفاده از آب – نظارت می‌کنند، اما کافی نیستند. کسب و کار همچنین باید در زیرساخت های فیزیکی جامعه محلی مانند جاده ها، برق و خدمات مخابراتی سرمایه گذاری کند. بهبود دسترسی مردم به آموزش و مراقبت های بهداشتی؛ و فعالیت های اقتصادی را تقویت می کند، بنابراین مردم محلی از وجود آن به طرق مختلف بهره مند می شوند. تنها در این صورت است که شرکت حسن نیت جامعه را برای اجرای پروژه به دست می آورد و حفظ می کند.

به خاطر داشته باشید که مجوز اجتماعی سندی مانند مجوز دولتی نیست. این نوعی پذیرش است که شرکت ها باید از طریق رفتار ثابت و قابل اعتماد و تعامل با سهامداران به دست آورند. بنابراین، مجوز اجتماعی برای هوش مصنوعی یک تصور رایج در جامعه است که یک شرکت حق دارد از این فناوری برای اهداف خاص در بازارهایی که در آن فعالیت می کند استفاده کند. شرکت ها نمی توانند به خود مجوزهای اجتماعی بدهند. همانطور که جان موریسون در سال 2014 استدلال کرد، آنها باید با اثبات اینکه می توانند به آنها اعتماد داشته باشند، آنها را به دست آورند.  و از دست دادن مجوز اجتماعی برای فعالیت می تواند عواقب ناگواری داشته باشد، زیرا شرکت های انرژی شل (متهم به آلوده کردن دلتای نیجر) و BP پس از دیپ واتر نشت نفت Horizon در خلیج مکزیک در سال 2010آموخته شد.

برای به دست آوردن مجوز اجتماعی برای استفاده از هوش مصنوعی برای تصمیم‌گیری، شرکت‌ها باید با ذینفعان – کارمندان، توسعه‌دهندگان نرم‌افزار، مصرف‌کنندگان، و سهامداران و سایرین- همکاری نزدیک داشته باشند تا گفتگو را آغاز کنند. این گفتگوهای دو طرفه بیانگر واکنش‌ها، انگیزه‌ها، مواضع و مخالفت‌های گروه‌های مختلف را تسریع می‌کند. این امر به مدیران شرکت اجازه می دهد تا درک مشترکی با سهامداران در مورد هر برنامه هوش مصنوعی و نرده های محافظی که باید کاربرد آن را محصور کنند، ایجاد کنند.

سه ستون

برای استفاده از هوش مصنوعی، شرکت ها به مجوز قانونی، در قالب مجوزهای نظارتی و تعهدات قانونی وابسته هستند. مجوز اقتصادی که ناشی از مطالبات سهامداران و مدیران اجرایی باشد. و مجوز اجتماعی یا مطالبات مردم. تنها در این صورت است که جامعه استفاده مداوم از هوش مصنوعی را مجاز خواهد کرد. مطالعات ما نشان می دهد که مجوز اجتماعی برای هوش مصنوعی بر سه پایه استوار است: مسئولیت، منفعت و قرارداد اجتماعی. (نمودار را ببینید.)

مسئوليت

اگر قرار است تجارت در مورد استفاده از هوش مصنوعی به جامعه پاسخگو باشد، باید بتواند نحوه عملکرد الگوریتم های هوش مصنوعی را توجیه کند. اگر برای شروع، مردم درک کنند که الگوریتم‌های هوش مصنوعی اخلاقی هستند، شرکت‌ها می‌توانند این کار را انجام دهند. تا زمانی که شرکت‌ها الگوریتم‌هایی را طراحی کنند که تا حد ممکن، هنگام کار، منصفانه و شفاف تلقی شوند، جامعه این عقیده را حفظ خواهد کرد.

اگر نتایج حاصل از استفاده از فناوری به دلیل عوامل جمعیت شناختی مانند سن، جنسیت، موقعیت مکانی یا به دلیل تغییرات در زمینه اقتصادی، اجتماعی یا سیاسی متفاوت نباشد، هوش مصنوعی منصفانه تلقی می شود. به عنوان مثال، شرکتی که از سیستم استخدام مبتنی بر هوش مصنوعی استفاده می‌کند باید بتواند نشان دهد که همه نامزدهایی که پاسخ‌های یکسان یا مشابهی را به سؤالی که توسط دستگاه ارائه شده است، یا امتیاز یکسانی را دریافت کرده‌اند.

جامعه باید برنامه هوش مصنوعی را از نظر عملکرد و نتایج شفاف درک کند. کسب و کار باید تا آنجا که می تواند در مورد طراحی یک الگوریتم باز باشد – درست همانطور که جامعه منبع باز تمام کدهای نرم افزار پیشرفته ای را که توسعه می دهد عمومی می کند. علاوه بر این، مدیران باید بتوانند علیت، مکانیک تصمیم گیری الگوریتم و منطق را توضیح دهند. که ممکن است آسان نباشد. به عنوان مثال، در آگوست 2020، تصمیم دولت بریتانیا برای نمره دادن به دانش‌آموزان مدرسه‌ای که امتحانات سطح A خود را با یک سیستم مبتنی بر هوش مصنوعی انجام می‌دهند، فریاد اعتراضی را برانگیخت. این به دلیل عدم شفافیت در مورد نحوه تصمیم گیری الگوریتم برای درجه بندی اتفاق افتاد. در نهایت، دولت بریتانیا چاره‌ای نداشت جز اینکه به دانشگاه‌های این کشور توصیه کند که نمرات تعیین‌شده توسط هوش مصنوعی را هنگام اعطای پذیرش کالج نادیده بگیرند.

تصمیمات انسانی ممکن است همیشه منصفانه یا شفاف نباشد. هر تصمیمی دارای سوگیری های آگاهانه و ناخودآگاهی است که به آن شکل می دهد. اما به نظر می‌رسد جامعه انتظار دارد که هوش مصنوعی، حتی اگر انسان‌ها آن را ایجاد کنند و داده‌هایی را که مستقیم یا غیرمستقیم تولید می‌کنند، به آن تغذیه می‌کنند، همیشه تصمیم‌هایی منصفانه‌تر و شفاف‌تر نشان می‌دهند. همانطور که گیل پرت، مدیر عامل موسسه تحقیقاتی تویوتا در سال 2017 گفت: «آسانسورهای گذشته را به خاطر دارید؟ موتور آنها قبلاً پرسنل بودند، اما با گذشت زمان، آسانسورهای خودکار به طور گسترده پذیرفته شدند. اگر می‌خواهیم مادری به زندگی فرزندانش با یک ماشین خودکار اعتماد کند، باید اطمینان حاصل کنیم که محصولات ما ایمن هستند و وسایل نقلیه خودکار به طور قابل توجهی بهتر از یک راننده انسانی عمل می‌کنند. بنابراین، استانداردهای جامعه برای پذیرش تصمیمات الگوریتمی بیشتر از پذیرش تصمیمات انسانی است.

در عین حال، بسیاری از تصمیمات برای جامعه قابل قبول هستند، حتی اگر به شیوه ای خاص گرفته شوند، اگر تصمیم گیرنده بتواند منطقی را بیان کند. منطق مشابهی باید در مورد الگوریتم‌های هوش مصنوعی نیز اعمال شود، حتی اگر افراد هوش مصنوعی را با استانداردهای بالاتری حفظ کنند. برای مثال، افرادی که پس‌انداز خود را به یک شرکت سرمایه‌گذاری می‌سپارند، باید فلسفه سرمایه‌گذاری شرکت و استراتژی آن را درک کنند و ترجیحات تحمل ریسک خود را با مشاوران مالی خود در میان بگذارند. تا زمانی که اهداف سرمایه گذار برآورده می شود، دیگر مهم نیست که معامله گران انسانی یا الگوریتم های هوش مصنوعی معاملات را از طرف مشتری انجام می دهند.

سود و منافع

شرکت‌ها باید اطمینان حاصل کنند که ذینفعان برداشت خود را از این که مزایای استفاده از سیستم‌های هوش مصنوعی بیشتر یا حداقل کمتر از هزینه‌های انجام این کار است، به اشتراک بگذارند. آن‌ها می‌توانند مبادلات ملموس و نامشهود را در سطوح فردی، شرکتی و اجتماعی با مقایسه مزایای نتایج حاصل از هوش مصنوعی (مانند افزایش سلامت، راحتی و آسایش در مورد مراقبت‌های بهداشتی) با جنبه‌های منفی احتمالی اندازه‌گیری کنند. که معمولاً به امنیت، حریم خصوصی و ایمنی مربوط می شود.

برخی از سیستم های مبتنی بر هوش مصنوعی به راحتی مزایای خود را نشان می دهند. به عنوان مثال، برنامه کاربردی هوش مصنوعی Google Translate این مزیت را ارائه می‌کند که می‌تواند متن را فوراً به بیش از 100 زبان و با دقت بالا ترجمه کند. هیچ نقطه ضعفی آشکار نیست، اگرچه برخی از مترجمان حرفه ای و کارمندان شرکت های ترجمه ممکن است در نتیجه شغل خود را از دست داده باشند. در سال 2020، گوگل ترنسلیت روزانه بیش از 100 میلیارد کلمه را ترجمه کرد و 500 میلیون کاربر را به خود اختصاص داد. در واقع، استفاده از ترجمه مبتنی بر هوش مصنوعی در حال افزایش است. طبق گزارش Mordor Intelligence در سال 2019، این صنعت تا سال 2025 که به 1 میلیارد دلار خواهد رسید، 11 درصد در سال رشد خواهد کرد.

در موارد دیگر، مزایای هوش مصنوعی ممکن است در مقایسه با هزینه ها بسیار مثبت نباشد، بنابراین ذینفعان باید متقاعد شوند. شرکت تحویل آلمانی DHL را در نظر بگیرید که دو سال پیش یک سیستم مبتنی بر هوش مصنوعی نصب کرد. تمام پالت‌هایی را که کارمندان در هواپیماهای شرکت بارگیری می‌کنند اسکن می‌کند و تعیین می‌کند که کدام پالت‌ها باید در بالا بارگذاری شوند، زیرا شکننده هستند و کدام‌ها می‌توانند زیر آنها بروند. در ابتدا، هوش مصنوعی نمی‌توانست مهارت تصمیم‌گیری انسانی را شکست دهد، اما با گذشت زمان بهتر شد. هوش مصنوعی بسیاری از پالت‌ها را از آسیب نجات داد و به کارمندان DHL اجازه داد کارهای خود را سریع‌تر انجام دهند، که باعث شد هوش مصنوعی مورد قبول آنها قرار بگیرد.

حکم جامعه همیشه به نفع استفاده از هوش مصنوعی نخواهد بود و کسب و کار باید برای آن آماده باشد. به عنوان مثال، زمانی که همه‌گیری COVID-19 آغاز شد، کارشناسان مراقبت‌های بهداشتی ایده ادغام تمام پایگاه‌های داده بیماران در اتحادیه اروپا را برای تسریع در ایجاد یک الگوریتم برای کمک به یافتن درمان مطرح کردند. با این حال، برای سیاستگذاران و کارشناسان آشکار نبود که آیا مزایای یافتن راه حل سریعتر از هزینه های نقض حریم خصوصی بیماران و اجازه دادن به کسب و کارها به داده های محرمانه و مطلوب مرتبط با سلامتی بیشتر است و موضوع در آنجا تمام شد.

قرارداد اجتماعی

در نهایت، جامعه باید بپذیرد که شرکت‌هایی که می‌خواهند هوش مصنوعی را توسعه دهند، می‌توان با استفاده از آن و همچنین به دست آوردن و تجزیه و تحلیل داده‌های بی‌درنگ برای تغذیه الگوریتم‌هایشان اعتماد کرد و آنها در قبال تصمیم‌های گرفته شده توسط سیستم‌های هوش مصنوعی پاسخگو خواهند بود. اعتماد برای پذیرش اجتماعی بسیار مهم است، به ویژه در مواردی که هوش مصنوعی می تواند مستقل از نظارت انسان عمل کند و بر زندگی انسان ها تأثیر بگذارد.

این یکی از دلایلی است که برای مثال، جامعه در تأیید استفاده نامحدود از خودروهای خودران کند بوده است. اتومبیل های خودران احتمالاً ایمن تر از اتومبیل های انسان محور خواهند بود. طبق گزارش NHTSA  ایالات متحده، خطای انسانی باعث 93 درصد تصادفات در جاده های ایالات متحده در سال 2020 شده است. اگرچه مردم به خودروسازان فعلی برای ایجاد وسایل نقلیه مکانیکی قابل اعتماد اعتماد دارند، آنها به توانایی آنها در توسعه فناوری های دیجیتال اعتقاد ندارند. به عنوان مثال، فیات کرایسلر در ژوئن 2015 کشف کرد که خودروهایی که به صفحه نمایش لمسی مجهز شده بود، ممکن است مورد حمله هکرها قرار گیرند، که حتی می توانند موتور وسایل نقلیه در حال حرکت را خاموش کنند. این خودروساز مجبور شد برای به روز رسانی نرم افزار و رفع آسیب پذیری، 1.4 میلیون خودرو را فراخوانی کند. علاوه بر این، اعتماد عمومی به وسایل نقلیه خودران به دلیل این واقعیت که شبکه‌های شرکت‌های مخابراتی، که زیرساخت 5G را برای ارتباطات بین انسان و ماشین فراهم می‌کنند، برای چندین دهه مکرراً هک شده‌اند، از بین رفته است.

خودروهای خودران نیز از عدم پاسخگویی رنج می برند. صاحبان وسایل نقلیه نمی دانند چه کسی مسئول تصمیماتی است که اتومبیل های خودران آنها در جاده ها می گیرند. و در صورت بروز حادثه مسئولیت چه کسی خواهد بود؟ دولت‌ها مقرراتی را تنظیم نکرده‌اند که به وسایل نقلیه خودران اجازه دهد در مقیاس بزرگ کار کنند، بنابراین سازندگان عقد قرارداد برای خودروهای مبتنی بر هوش مصنوعی با جامعه را دشوار می‌دانند.

کسب مجوز اجتماعی

اگرچه مسیرهایی که کسب‌وکار می‌تواند برای دریافت مجوز اجتماعی برای هوش مصنوعی طی کند هنوز مشخص نیست، اولین پست‌های راهنما قابل مشاهده هستند. برای یک چیز، رویکرد باید بر اساس مشکلی که هوش مصنوعی با آن مقابله می کند و تعداد ذینفعانی که در این فرآیند دخیل هستند، متفاوت باشد. بنابراین، شناسایی آنهایی که بر اعطای مجوز اجتماعی تأثیر خواهند گذاشت، یک پیش نیاز کلیدی است. گروه های ذینفع ممکن است کم یا زیاد باشند، با اهداف واگرا یا همگرا. در مثال قبلی ما، DHL باید نگران دریافت مجوز اجتماعی برای الگوریتم مرتب‌سازی پالت خود فقط از کارمندان، اتحادیه‌های کارگری و سهامداران بود. در مقابل، تسلا باید با تعداد زیادی از سهامداران – مانند مالکان و رانندگان خودرو (مصرف کنندگان) کار کند. دولت های شهر، ایالت و فدرال (تنظیم کننده ها)؛ و جامعه مدنی (منتقدان و مدافعان) – برای دریافت مجوز اجتماعی برای فناوری خودران خود.

به عنوان یک قاعده کلی، رهبران کسب و کار باید در هنگام برخورد با سهامداران دو چیز را در نظر داشته باشند. از یک طرف، یک شرکت باید کمترین شرایط ذینفعان را برای استفاده از هوش مصنوعی شناسایی کند. این امر پایه ای برای هر ستون است. از سوی دیگر، باید بالاترین انتظارات ذینفعان با نفوذ را شناسایی کند که سقف ها را تعیین می کند. سپس مدیران اجرایی باید تعادل پیچیده ای بین آستانه و سقف ستون های اجتماعی و اقتصادی ایجاد کنند. به عنوان مثال، DHL مجبور بود تنش بین افزایش مشاغل کارکنان بدون جایگزین کردن آنها (آستانه) و حداکثر کردن بازده سهامداران (سقف) را متعادل کند.

علاوه بر این، هر سازمانی بسته به تاریخچه، جغرافیا و توانایی های فعلی خود در زمینه متفاوتی فعالیت می کند. هنگامی که مدیران نقطه شروع شرکت خود را مشخص کردند، می توانند هفت گام برای دریافت مجوز اجتماعی بردارند.

تمام هزینه ها و منافع را به اشتراک بگذارید.

در ابتدا، شرکت ها باید تمام مزایای احتمالی هوش مصنوعی و همچنین تمام جنبه های منفی احتمالی را برای ذینفعان توضیح دهند. مهم است که با هر گروه تماس بگیرید و با آنها صحبت کنید نه اینکه اطلاعات را با چاپ دقیق در انتهای یک وب سایت دفن کنید.

کسب و کارها نباید از توصیف آشکار خطرات هوش مصنوعی خودداری کنند، اما در عین حال باید توضیح دهند که چگونه با آنها مقابله خواهند کرد. برای مثال، Google با انتشار و به‌روزرسانی دوره‌ای سند خود خط‌مشی‌ها و اصول هوش مصنوعی در Google، تعهدی را در سراسر سازمان برای تضمین استفاده ایمن، منصفانه و بی‌طرفانه از هوش مصنوعی به اشتراک می‌گذارد. یکی از اولین شرکت هایی که این عمل را آغاز کرد، گوگل به طور عمومی مرزهای اخلاقی مربوط به استفاده از هوش مصنوعی در محصولات خود را مشخص می کند. انجام این کار یک مرجع عمومی برای هرکسی که می‌خواهد از شرکت انتقاد کند، در صورتی که معتقد است گوگل از قوانین خودش پیروی نمی‌کند، فراهم می‌کند. این همان چیزی است که گوگل قصد داشت: آنها [«سیاست‌ها و اصول»] به ما اجازه نمی‌دهند – و نباید – به ما اجازه ‌دهند مکالمات سخت را کنار بگذاریم، بلکه به آنها اجازه می‌دهند آنها را شروع کنیم.

BCG در خصوص عملکرد CO2 AI، یک راه حل مبتنی بر هوش مصنوعی که به سازمان ها در شبیه سازی، اندازه گیری و ردیابی ردپای محیطی خود کمک می کند، از همین منطق پیروی کرد.

جعبه سیاه را باز کنید.

اکثر شرکت‌ها تخصص لازم برای ساخت هوش مصنوعی را به گونه‌ای توسعه نداده‌اند که به کاربران توضیح دهد که الگوریتم‌ها دقیقاً چگونه کار می‌کنند بدون اینکه چیز زیادی به رقبا بدهند. مدیران عامل باید مشارکت با مبتکرانی مانند استارتاپ‌های هوش مصنوعی، غول‌های دیجیتال، اتاق‌های فکر و دانشمندان را در نظر بگیرند تا اکوسیستم‌هایی را توسعه دهند که به آن‌ها در درک پیشرفت‌های توسعه هوش مصنوعی کمک کند.

برای مثال، دانشمندان در حال تلاش برای ایجاد هوش مصنوعی قابل توضیح هستند – یعنی الگوریتم‌هایی که می‌توانند یک تصمیم و همچنین توضیح پشتیبان ارائه دهند، اما بدون اینکه دقت اولی را به خاطر دومی قربانی کنند. تمرکز روی همبستگی نیست؛ در عوض، جستجو برای «زیرا» است – توضیحی در مورد اینکه چرا این تصمیم برای برنامه هوش مصنوعی منطقی بود. به طور مشابه، هوش مصنوعی علی ( علت) عواملی را در یک الگوریتم شناسایی می‌کند که منجر به رفتارها یا نتایج خاصی می‌شود، و آزمایش می‌کند که چه چیزی آنها را تغییر می‌دهد. در مقاله بررسی نوآوری اجتماعی استنفورد در سال 2020، نویسندگان این واقعیت را برجسته می‌کنند که هوش مصنوعی علّی می‌تواند به جلوگیری از اشتباهاتی کمک کند که وقتی افراد و برنامه‌های هوش مصنوعی ایجاد می‌کنند، زمینه‌ها را نادیده می‌گیرند یا همبستگی را برای علیت اشتباه می‌کنند. این نوعی تحقیق است که کسب‌وکارها می‌توانند از آن بهره ببرند، بنابراین شرکت‌ها باید اکوسیستم‌های هوش مصنوعی را توسعه دهند که به آنها کمک کند از همان ابتدا به آن دسترسی داشته باشند.

مکانیزم های نادیده گرفتن را توسعه دهید.

زمانی که شرکت‌ها به هوش مصنوعی وابسته هستند، نتایج غیرمنتظره‌ای که پیامدهای منفی دارند، امکان‌پذیر است، بنابراین باید پیشگیرانه برای جلوگیری از آنها اقدام کنند. با شناخت محدودیت های الگوریتم ها، کسب و کار باید زمین بازی را به دقت تعریف کند. انجام این کار اطمینان حاصل می کند که هوش مصنوعی یاد می گیرد استثناهایی را که نمی تواند آنها را پردازش کند علامت گذاری کند و مداخلات غیرمستقیم انسانی را برای مقابله با آنها توصیه کند. غیرممکن است که بدون مکانیسم های تعدیل کننده داخلی این اتفاق بیفتد.

به عنوان مثال، در مارس 2020، مکانیسم‌های امنیت سایبری مبتنی بر هوش مصنوعی یکی از فروشگاه‌های مواد غذایی آنلاین برتر بریتانیا به طور ناگهانی کل وب‌سایت را تعطیل کرد. این افزایش تقاضای بی‌سابقه مرتبط با COVID-19 را با حمله انکار سرویس توزیع شده اشتباه گرفته بود. مهندسی روش برای نظارت و مدیریت پاسخ رفع خرابی سیستم به خرده‌فروش بریتانیایی کمک می‌کرد تا بهتر با این وضعیت کنار بیاید، درآمد بیشتری کسب کند، و مانند آن روز با تمام مشتریان خود مخالفت نکند.

اولویت بندی مدیریت ریسک استفاده از هوش مصنوعی مانند هر تصمیم تجاری دیگری خطرناک است. طبق نظرسنجی Clifford Chance از اعضای هیئت مدیره سه سال پیش، در حالی که 88٪ از پاسخ دهندگان به توانایی خود برای مقابله با خطرات مرتبط با هوش مصنوعی ابراز اطمینان کردند، 46٪ هیچ اقدامی انجام نداده بودند. شرکت‌ها باید یاد بگیرند که خطرات مرتبط با هوش مصنوعی را با نقشه‌برداری و ارزیابی سیستماتیک کاهش دهند. آنها باید عناصر ذاتی ریسک – مانند شدت و احتمال آن – و همچنین زمینه را بررسی کنند، مانند محیط نظارتی و استراتژی های کلی مدیریت ریسک آنها.

مدیریت ریسک مرتبط با هوش مصنوعی با مدیریت ریسک‌های دیگر، مانند خطای انسانی یا کلاهبرداری کارکنان تفاوت چندانی ندارد، بنابراین مدبران ارشد ریسک باید سطوح ریسک قانونی، مالی، اعتباری و فیزیکی را که شرکت‌هایشان مایل به پذیرش آن هستند، تعیین کنند. آنها باید در مراحل اولیه استفاده از هوش مصنوعی این کار را انجام دهند. همانطور که CRO Zalando، شرکت تجارت الکترونیک مستقر در برلین، در سپتامبر 2020 نوشت: “با تشخیص ارتباط مدیریت ریسک مناسب برای هوش مصنوعی و یادگیری ماشینی به عنوان شرط لازم موفقیت پایدار، CRO تلاش خواهد کرد آنرا  تا به دست آورد. تیم‌های او در مراحل اولیه در بحث پیرامون ابزارها و راه‌حل‌های هوش مصنوعی شرکت داشتند، زیرا تنها با بخشی از راه‌حل (که در ابتدا) موجود است ، مدیریت ریسک به عنوان بخشی از مشکل تلقی نمی‌شود .

مسئول پیامدهای نیروی کار باشید.

 در همان ابتدا، شرکت‌ها باید مسائل مربوط به اشتغال را که با استفاده از هوش مصنوعی در مقیاس به وجود می‌آیند، پیش‌بینی کنند. این تنها راهی است که آنها می توانند پیشگیرانه با پیامدهای اجتماعی مقابله کنند. آن‌ها باید شکاف‌ها و مازادهایی را که با استفاده سازمان از هوش مصنوعی در نیروی کار ایجاد می‌شود شناسایی کنند و پیش‌بینی‌هایی را برای کارکردهای شغلی که بیشتر تحت تأثیر گسترش هوش مصنوعی هستند، توسعه دهند. کسب‌وکار باید هر زمان که ممکن است برای پر کردن موقعیت‌های جدید، کارمندان آسیب‌دیده را ارتقا داده و دوباره مهارت دهد و در عین حال در مورد پیامدهایی که استفاده از هوش مصنوعی برای جبران خسارت خواهد داشت، شفاف باشد. همچنین باید به دنبال موقعیت هایی در خارج از سازمان برای کارمندانی بگردند که امکان بازآموزی وجود نداشته باشد و شغل آنها از بین برود.

در عصر هوش مصنوعی، شرکت ها یک تعهد اخلاقی جدید دارند: آنها باید به عنوان ارائه دهندگان آموزش مستمر کارکنان خدمت کنند. با توجه به سرعت تغییر فناوری، حتی فارغ التحصیلان تازه وارد به زودی باید مهارت های هوش مصنوعی خود را ارتقا دهند. بعید است که روش‌های آموزشی سنتی کافی باشد، بنابراین شرکت‌ها باید نقشی کلیدی در حصول اطمینان از اینکه نیروی کارشان به‌روز می‌مانند، ایفا کنند. به عنوان مثال، گروه OCP مراکش – یکی از بزرگترین معدنچیان سنگ فسفات در جهان، تولید کنندگان اسید فسفریک و تولید کنندگان کودهای فسفاته – با دانشگاه پلی تکنیک محمد ششم این کشور و همچنین Ecole des Mines، Ecole Polytechnique، دانشگاه MIT، و École Polytechnique Fédérale de Lozanne، برای افتتاح چندین برنامه تحصیلات تکمیلی و اجرایی برای مدیریت هوش مصنوعی در کشور همکاری کرده است. همچنین نسل جدیدی از مدارس کدنویسی را در Benguerir و Khouribga ایجاد کرده است، جایی که کارکنان OCP و افراد محلی می توانند مهارت های دیجیتال خود را تقویت کنند.

این خبر را پخش کنید.

شرکت هایی که از هوش مصنوعی استفاده می کنند باید همه کارکنان خود را در مورد این فناوری آموزش دهند. سطح درک در حال حاضر به طور قابل توجهی در بین توابع متفاوت است، که یک چالش بزرگ است. بر اساس نظرسنجی BCG-MIT 2020 AI، 67 درصد از کارمندانی که هوش مصنوعی را درک نمی کنند، به تصمیمات مبتنی بر هوش مصنوعی اعتماد ندارند، در حالی که این تعداد در میان کارمندان تنها 23 درصد است که با این فناوری مقابله می کنند. شرکت انرژی اسپانیایی Repsol با درک نیاز به آموزش هوش مصنوعی به کارکنان، یک مدرسه داده داخلی ایجاد کرده است که در آن برنامه های درسی هوش مصنوعی و داده ها برای هر کارمند تنظیم می شود. این شرکت به سرعت در حال تبدیل شدن به یک سازمان مبتنی بر داده است و در تلاش است تا تمامی کارکنان خود را مجدداً مهارت و مهارت دهد تا اطمینان حاصل شود که هیچ یک از آنها عقب نمانند.

از آنجایی که اعتماد بر توانایی تعامل موفقیت آمیز با هوش مصنوعی تأثیر می گذارد، آموزش جامعه عامل موفقیت کلیدی برای استفاده از هوش مصنوعی در مقیاس خواهد بود. به منظور افزایش احتمال دریافت مجوز اجتماعی برای هوش مصنوعی، شرکت ها بدیهی است که باید از کارمندان فراتر رفته و به مشتریان، سهامداران، جامعه مدنی و عموم مردم در مورد مزایا و معایب هوش مصنوعی آموزش دهند.

به شکل گیری دنیای هوش مصنوعی کمک کنید.

 به نظر می‌رسد فناوری‌های دیجیتال که توسط هوش مصنوعی هدایت می‌شوند، جهان و آینده کار را تغییر خواهند داد. طبق گزارش مجمع جهانی اقتصاد آینده مشاغل 2020: «در دو سال آینده (تا سال 2022)، انتظار می‌رود که 42 درصد از مهارت‌های اصلی مورد نیاز برای انجام مشاغل موجود تغییر کند» و «85 میلیون شغل جابجا خواهد شد». اگر این اتفاق بیفتد، ثابت خواهد شد که یک اختلال اقتصادی، فناوری و اجتماعی در مقیاسی مشابه انقلاب‌های صنعتی اول و دوم قرن هجدهم است. به جای اینکه کورکورانه هوش مصنوعی را پیش ببریم و تنها بر روی حداکثر کردن سود با این فناوری تمرکز کنیم، کسب و کار بهتر است نقش فعالی در کمک به دولت ها، مردم و جامعه برای درک فناوری و کاهش تأثیر آن بر انسان ایفا کند.

شرکت‌ها باید با سیاست‌گذاران همکاری کنند تا یک اکوسیستم تجاری با هوش مصنوعی در هسته آن بسازند. آنها باید از هر فرصتی برای کمک به طراحی مقرراتی استفاده کنند که استفاده از هوش مصنوعی را گسترش داده و تأثیر آن را میانجیگری کند. قانون‌گذاران همیشه همگام شدن با فناوری را دشوار می‌دانند. آنها از کمک رهبران کسب و کار برای شناسایی سیاست های مرتبط با هوش مصنوعی که نوآوری، تخریب خلاقانه، تأثیر اقتصادی آن و عدالت اجتماعی را متعادل می کند، استقبال خواهند کرد. نتیجه آن یک برد-برد خواهد بود. شرکت‌ها از هوش مصنوعی منطبق با مقررات آینده بهره خواهند برد و تنظیم‌کننده‌ها به سرعت بخشیدن به سرعت کسب مجوز اجتماعی برای هوش مصنوعی به کسب‌وکار کمک خواهند کرد.

برای کمی بیش از دو دهه، از زمانی که رسوایی های انرون، ورلد کام و تایکو فوران کردند، کسب و کار به طور پیوسته اعتبار خود را از دست داده است. با توجه به عدم مسئولیت اجتماعی شرکت‌ها و آسیب‌های زیست‌محیطی که وارد کرده‌اند، تعجب‌آور نیست. بسیاری از مردم، به ویژه در اقتصادهای توسعه یافته، متقاعد شده اند که به دلیل اقدامات بی امان برای به حداکثر رساندن سود، کسب و کار تقریباً مشروعیت اجتماعی خود را از دست می دهد – مهر تأییدی که جامعه به شرکت ها می دهد و این تصور را می پذیرد که اقدامات سودجویانه آنها. با توجه به ارزش ها، هنجارها و باورهای انسانی به طور گسترده مناسب و مطلوب هستند. علیرغم تاریخ طولانی سرمایه داری، آنها بر این باورند که روزی دور نیست که هر شرکتی اگر بخواهد در تجارت بماند، نیاز به بازپس گیری مجوز اجتماعی خود داشته باشد.

به همین ترتیب، شرکت ها باید بدانند که استفاده از هوش مصنوعی، صرف نظر از اینکه چقدر مسئولانه طراحی شده باشد و چقدر دقیق آزمایش شود، به طور خودکار توسط جامعه پذیرفته نخواهد شد. رعایت قوانین و مقررات مصوب دولت کافی نخواهد بود. که فقط یک عامل بهداشتی است. کسب‌وکار ممکن است از حق قانونی استفاده از هوش مصنوعی برخوردار باشد، اما اگر می‌خواهد هوش مصنوعی را در مقیاس بزرگ به کار گیرد، باید از همه ذینفعان مجوز اجتماعی دریافت کند.

https://www.bcg.com

آیا این نوشته برایتان مفید بود؟

مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *