نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

1 آذر 1403 12:50 ق.ظ

شرکت های هوش مصنوعی می گویند ایمنی یک اولویت است اما واقعیت این نیست

شرکت های هوش مصنوعی می گویند ایمنی یک اولویت است اما واقعیت این نیست

9 ژوئیه 2024-مفهوم هوش مصنوعی با سرهای ربات قرمز و سبز در جهت مخالف، عکس توسط wildpixel/Getty Images-داگلاس یونگ

این همان چیزی است که بسیاری از برترین فناوران جهان در مورد آینده هوش مصنوعی معتقدند. به همین دلیل است که شرکت‌هایی مانند OpenAI بر تعهد خود به اهداف ظاهراً متضاد تأکید می‌کنند: تسریع پیشرفت فن‌آوری با سرعت هرچه بیشتر – اما همچنین با خیال راحت – تا حد امکان.

این یک قصد ستودنی است، اما به نظر نمی رسد یکی از این شرکت های متعدد موفق باشد.

برای مثال OpenAI را در نظر بگیرید. شرکت پیشرو هوش مصنوعی در جهان بر این باور است که بهترین رویکرد برای ایجاد فناوری سودمند این است که اطمینان حاصل شود که کارکنان آن “کاملاً” با مأموریت سازمان هماهنگ هستند. این معقول به نظر می رسد جز اینکه در عمل به چه معناست؟

به عنوان حیوانات اجتماعی، طبیعی است که ما گروه ها یا قبیله هایی را برای دنبال کردن اهداف مشترک تشکیل دهیم. اما این گروه ها می توانند منزوی و مخفیانه رشد کنند و نسبت به افراد خارجی و ایده های آنها بی اعتماد شوند. دهه‌ها پژوهش روان‌شناختی نشان داده است که چگونه گروه‌ها می‌توانند مخالفان را با مجازات یا حتی بیرون راندن مخالفان خفه کنند. در انفجار شاتل فضایی چلنجر در سال 1986، مهندسان نگرانی های ایمنی را در مورد تقویت کننده های موشک در هوای سرد بیان کردند. با این حال، مهندسان توسط رهبری آنها نادیده گرفته شدند، که ممکن است برای جلوگیری از به تاخیر انداختن پرتاب فشار را احساس کنند.

می تواند ما را نجات دهد یا می تواند ما را بکشد. این همان چیزی است که بسیاری از برترین فناوران جهان در مورد آینده هوش مصنوعی معتقدند.

به گفته گروهی از خودی های هوش مصنوعی، چیزی مشابه در OpenAI در حال وقوع است. طبق نامه ای سرگشاده که توسط 9 کارمند فعلی و سابق امضا شده است، این شرکت از تاکتیک های هاردبال برای سرکوب مخالفت کارگران در مورد فناوری خود استفاده می کند. یکی از محققانی که نامه را امضا کرده بود، شرکت را به عنوان “بی پروا” برای تسلط در این زمینه توصیف کرد.

این فقط در OpenAI اتفاق نمی افتد. در اوایل سال جاری، یکی از مهندسان مایکروسافت نگران این بود که ابزارهای هوش مصنوعی این شرکت تصاویر خشونت آمیز و جنسی تولید می کنند. او ابتدا سعی کرد شرکت را وادار کند که آنها را از بازار بیرون بکشد، اما زمانی که این کار نتیجه ای نداشت، به سهامی عام رفت. سپس، او گفت، تیم حقوقی مایکروسافت از او خواستند که پست لینکدین را حذف کند. در سال 2021، مدیر پروژه سابق فیس بوک، فرانسیس هاوگن، تحقیقات داخلی را فاش کرد که نشان داد این شرکت الگوریتم هایی را می شناسد – که اغلب به عنوان بلوک های سازنده هوش مصنوعی از آن یاد می شود – که اینستاگرام برای نمایش محتوای کاربران جوان استفاده می کرد و دختران نوجوان را در معرض تصاویری قرار می داد که برای آنها مضر است. سلامت روان. وقتی در مصاحبه ای با «60 دقیقه» از هاوگن پرسیده شد که چرا این حرف را زده است، هاوگن پاسخ داد: «شخصی که در داخل فیس بوک با این موضوع برخورد کرده و خود را به دردسر می اندازند.»

رهبران شرکت‌های هوش مصنوعی ادعا می‌کنند که تمرکز لیزری بر اطمینان از ایمن بودن محصولات خود دارند. برای مثال، آنها تحقیقات را سفارش داده اند، تیم های «اعتماد و ایمنی» راه اندازی کرده اند، و حتی شرکت های جدیدی را برای کمک به دستیابی به این اهداف راه اندازی کرده اند. اما این ادعاها زمانی تضعیف می‌شوند که خودی‌ها تصویری آشنا از فرهنگ سهل انگاری و رازداری ترسیم می‌کنند که – به دور از اولویت دادن به ایمنی – در عوض هشدارها را نادیده می‌گیرد و شواهد مربوط به اقدامات ناامن را پنهان می‌کند، چه برای حفظ سود، جلوگیری از کند شدن پیشرفت، یا صرفاً برای در امان ماندن از احساسات. از رهبران

بنابراین این شرکت ها چه کاری می توانند متفاوت انجام دهند؟

به عنوان اولین گام، شرکت‌های هوش مصنوعی می‌توانند بندهای عدم تحقیر یا محرمانگی را ممنوع کنند. افشاگران OpenAI در نامه سرگشاده خود این درخواست را داشتند و این شرکت می گوید قبلاً چنین اقداماتی را انجام داده است. اما حذف تهدیدهای صریح تنبیه کافی نیست اگر فرهنگ محیط کار منزوی به دلسردی ضمنی نگرانی هایی که ممکن است پیشرفت را کند کند ادامه دهد.

به جای اینکه صرفاً به مخالفت اجازه دهند، شرکت های فناوری می توانند آن را تشویق کنند و گزینه های بیشتری را روی میز بگذارند. مثلاً، این می‌تواند شامل تقویت برنامه‌های «باگ جایزه» باشد که شرکت‌های فناوری از قبل برای پاداش دادن به کارمندان و مشتریانی که نقص‌های نرم‌افزار خود را شناسایی می‌کنند، استفاده می‌کنند. شرکت‌ها می‌توانند نقش «وکیل مدافع شیطان» را در نرم‌افزار یا تیم‌های خط‌مشی که متهم به مواضع مخالف با اجماع هستند، تعبیه کنند.

شرکت‌های هوش مصنوعی همچنین ممکن است از نحوه اجتناب سایر تیم‌های بسیار ماهر و متمرکز بر ماموریت از تفکر گروهی یاد بگیرند. نیروهای عملیات ویژه نظامی به انسجام گروهی جایزه می‌دهند، اما اذعان دارند که پرورش مخالفت – از هر کسی، صرف نظر از درجه یا نقش – ممکن است تفاوت بین مرگ و زندگی را ثابت کند. برای مثال، دکترین ارتش – اصول بنیادی سازمان‌های نظامی – بر (PDF) تأکید می‌کند که نیروهای عملیات ویژه باید بدانند که چگونه از تیم‌ها و افراد کوچک به عنوان بازیگران خودمختار استفاده کنند.

سرانجام، سازمان‌هایی که قبلاً برای شفاف‌تر کردن مدل‌های هوش مصنوعی کار می‌کردند، می‌توانند عملکرد درونی خود را روشن کنند. رازداری ریشه دوانده است.

در چند شرکت هوش مصنوعی فعالیت می کنند. بازسازی اعتماد عمومی می‌تواند مستلزم عقب‌نشینی آن پرده، برای مثال، توضیح واضح‌تر فرآیندهای ایمنی یا پاسخ علنی به انتقاد باشد.با هوش مصنوعی، خطر ساکت کردن کسانی که از خط شرکت پیروی نمی کنند، به جای تلقی آنها به عنوان منابع حیاتی اطلاعات حیاتی ماموریت، بسیار زیاد است که نمی توان نادیده گرفت.

مطمئناً، تصمیم‌گیری گروهی می‌تواند از ادغام اطلاعات یا غلبه بر تعصبات فردی (PDF) سود ببرد، اما اغلب منجر به اعتماد بیش از حد یا تطابق با هنجارهای گروهی می‌شود. با هوش مصنوعی، خطر ساکت کردن کسانی که از خط شرکت پیروی نمی کنند، به جای تلقی آنها به عنوان منابع حیاتی اطلاعات حیاتی ماموریت، بسیار زیاد است که نمی توان نادیده گرفت.

این طبیعت بشری است که قبیله‌ها را تشکیل می‌دهد – می‌خواهند با یک گروه فشرده از افراد همفکر کار کنند و از آنها حمایت کنند. این نیز تحسین برانگیز است، اگر بزرگ باشد، که به عنوان مأموریت خود چیزی کمتر از ساختن ابزاری برای مقابله با بزرگترین چالش های بشریت بپذیریم. اما فناوری‌های هوش مصنوعی در صورتی که توسعه‌دهندگان آن طعمه یک نقص اساسی انسانی شوند، یعنی امتناع از توجه به حقایق سخت از سوی کسانی که می‌دانند، احتمالاً از آن هدف متعالی – پیشرفت سریع و در عین حال مسئولانه فناوری – کوتاهی خواهند کرد.

داگلاس یونگ یک دانشمند ارشد رفتارشناسی در RAND و یکی از اعضای هیئت علمی دانشکده تحصیلات تکمیلی Pardee RAND است.

https://www.rand.org

آیا این نوشته برایتان مفید بود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *