9 ژوئیه 2024-مفهوم هوش مصنوعی با سرهای ربات قرمز و سبز در جهت مخالف، عکس توسط wildpixel/Getty Images-داگلاس یونگ
این همان چیزی است که بسیاری از برترین فناوران جهان در مورد آینده هوش مصنوعی معتقدند. به همین دلیل است که شرکتهایی مانند OpenAI بر تعهد خود به اهداف ظاهراً متضاد تأکید میکنند: تسریع پیشرفت فنآوری با سرعت هرچه بیشتر – اما همچنین با خیال راحت – تا حد امکان.
این یک قصد ستودنی است، اما به نظر نمی رسد یکی از این شرکت های متعدد موفق باشد.
برای مثال OpenAI را در نظر بگیرید. شرکت پیشرو هوش مصنوعی در جهان بر این باور است که بهترین رویکرد برای ایجاد فناوری سودمند این است که اطمینان حاصل شود که کارکنان آن “کاملاً” با مأموریت سازمان هماهنگ هستند. این معقول به نظر می رسد جز اینکه در عمل به چه معناست؟
به عنوان حیوانات اجتماعی، طبیعی است که ما گروه ها یا قبیله هایی را برای دنبال کردن اهداف مشترک تشکیل دهیم. اما این گروه ها می توانند منزوی و مخفیانه رشد کنند و نسبت به افراد خارجی و ایده های آنها بی اعتماد شوند. دههها پژوهش روانشناختی نشان داده است که چگونه گروهها میتوانند مخالفان را با مجازات یا حتی بیرون راندن مخالفان خفه کنند. در انفجار شاتل فضایی چلنجر در سال 1986، مهندسان نگرانی های ایمنی را در مورد تقویت کننده های موشک در هوای سرد بیان کردند. با این حال، مهندسان توسط رهبری آنها نادیده گرفته شدند، که ممکن است برای جلوگیری از به تاخیر انداختن پرتاب فشار را احساس کنند.
می تواند ما را نجات دهد یا می تواند ما را بکشد. این همان چیزی است که بسیاری از برترین فناوران جهان در مورد آینده هوش مصنوعی معتقدند.
به گفته گروهی از خودی های هوش مصنوعی، چیزی مشابه در OpenAI در حال وقوع است. طبق نامه ای سرگشاده که توسط 9 کارمند فعلی و سابق امضا شده است، این شرکت از تاکتیک های هاردبال برای سرکوب مخالفت کارگران در مورد فناوری خود استفاده می کند. یکی از محققانی که نامه را امضا کرده بود، شرکت را به عنوان “بی پروا” برای تسلط در این زمینه توصیف کرد.
این فقط در OpenAI اتفاق نمی افتد. در اوایل سال جاری، یکی از مهندسان مایکروسافت نگران این بود که ابزارهای هوش مصنوعی این شرکت تصاویر خشونت آمیز و جنسی تولید می کنند. او ابتدا سعی کرد شرکت را وادار کند که آنها را از بازار بیرون بکشد، اما زمانی که این کار نتیجه ای نداشت، به سهامی عام رفت. سپس، او گفت، تیم حقوقی مایکروسافت از او خواستند که پست لینکدین را حذف کند. در سال 2021، مدیر پروژه سابق فیس بوک، فرانسیس هاوگن، تحقیقات داخلی را فاش کرد که نشان داد این شرکت الگوریتم هایی را می شناسد – که اغلب به عنوان بلوک های سازنده هوش مصنوعی از آن یاد می شود – که اینستاگرام برای نمایش محتوای کاربران جوان استفاده می کرد و دختران نوجوان را در معرض تصاویری قرار می داد که برای آنها مضر است. سلامت روان. وقتی در مصاحبه ای با «60 دقیقه» از هاوگن پرسیده شد که چرا این حرف را زده است، هاوگن پاسخ داد: «شخصی که در داخل فیس بوک با این موضوع برخورد کرده و خود را به دردسر می اندازند.»
رهبران شرکتهای هوش مصنوعی ادعا میکنند که تمرکز لیزری بر اطمینان از ایمن بودن محصولات خود دارند. برای مثال، آنها تحقیقات را سفارش داده اند، تیم های «اعتماد و ایمنی» راه اندازی کرده اند، و حتی شرکت های جدیدی را برای کمک به دستیابی به این اهداف راه اندازی کرده اند. اما این ادعاها زمانی تضعیف میشوند که خودیها تصویری آشنا از فرهنگ سهل انگاری و رازداری ترسیم میکنند که – به دور از اولویت دادن به ایمنی – در عوض هشدارها را نادیده میگیرد و شواهد مربوط به اقدامات ناامن را پنهان میکند، چه برای حفظ سود، جلوگیری از کند شدن پیشرفت، یا صرفاً برای در امان ماندن از احساسات. از رهبران
بنابراین این شرکت ها چه کاری می توانند متفاوت انجام دهند؟
به عنوان اولین گام، شرکتهای هوش مصنوعی میتوانند بندهای عدم تحقیر یا محرمانگی را ممنوع کنند. افشاگران OpenAI در نامه سرگشاده خود این درخواست را داشتند و این شرکت می گوید قبلاً چنین اقداماتی را انجام داده است. اما حذف تهدیدهای صریح تنبیه کافی نیست اگر فرهنگ محیط کار منزوی به دلسردی ضمنی نگرانی هایی که ممکن است پیشرفت را کند کند ادامه دهد.
به جای اینکه صرفاً به مخالفت اجازه دهند، شرکت های فناوری می توانند آن را تشویق کنند و گزینه های بیشتری را روی میز بگذارند. مثلاً، این میتواند شامل تقویت برنامههای «باگ جایزه» باشد که شرکتهای فناوری از قبل برای پاداش دادن به کارمندان و مشتریانی که نقصهای نرمافزار خود را شناسایی میکنند، استفاده میکنند. شرکتها میتوانند نقش «وکیل مدافع شیطان» را در نرمافزار یا تیمهای خطمشی که متهم به مواضع مخالف با اجماع هستند، تعبیه کنند.
شرکتهای هوش مصنوعی همچنین ممکن است از نحوه اجتناب سایر تیمهای بسیار ماهر و متمرکز بر ماموریت از تفکر گروهی یاد بگیرند. نیروهای عملیات ویژه نظامی به انسجام گروهی جایزه میدهند، اما اذعان دارند که پرورش مخالفت – از هر کسی، صرف نظر از درجه یا نقش – ممکن است تفاوت بین مرگ و زندگی را ثابت کند. برای مثال، دکترین ارتش – اصول بنیادی سازمانهای نظامی – بر (PDF) تأکید میکند که نیروهای عملیات ویژه باید بدانند که چگونه از تیمها و افراد کوچک به عنوان بازیگران خودمختار استفاده کنند.
سرانجام، سازمانهایی که قبلاً برای شفافتر کردن مدلهای هوش مصنوعی کار میکردند، میتوانند عملکرد درونی خود را روشن کنند. رازداری ریشه دوانده است.
در چند شرکت هوش مصنوعی فعالیت می کنند. بازسازی اعتماد عمومی میتواند مستلزم عقبنشینی آن پرده، برای مثال، توضیح واضحتر فرآیندهای ایمنی یا پاسخ علنی به انتقاد باشد.با هوش مصنوعی، خطر ساکت کردن کسانی که از خط شرکت پیروی نمی کنند، به جای تلقی آنها به عنوان منابع حیاتی اطلاعات حیاتی ماموریت، بسیار زیاد است که نمی توان نادیده گرفت.
مطمئناً، تصمیمگیری گروهی میتواند از ادغام اطلاعات یا غلبه بر تعصبات فردی (PDF) سود ببرد، اما اغلب منجر به اعتماد بیش از حد یا تطابق با هنجارهای گروهی میشود. با هوش مصنوعی، خطر ساکت کردن کسانی که از خط شرکت پیروی نمی کنند، به جای تلقی آنها به عنوان منابع حیاتی اطلاعات حیاتی ماموریت، بسیار زیاد است که نمی توان نادیده گرفت.
این طبیعت بشری است که قبیلهها را تشکیل میدهد – میخواهند با یک گروه فشرده از افراد همفکر کار کنند و از آنها حمایت کنند. این نیز تحسین برانگیز است، اگر بزرگ باشد، که به عنوان مأموریت خود چیزی کمتر از ساختن ابزاری برای مقابله با بزرگترین چالش های بشریت بپذیریم. اما فناوریهای هوش مصنوعی در صورتی که توسعهدهندگان آن طعمه یک نقص اساسی انسانی شوند، یعنی امتناع از توجه به حقایق سخت از سوی کسانی که میدانند، احتمالاً از آن هدف متعالی – پیشرفت سریع و در عین حال مسئولانه فناوری – کوتاهی خواهند کرد.
داگلاس یونگ یک دانشمند ارشد رفتارشناسی در RAND و یکی از اعضای هیئت علمی دانشکده تحصیلات تکمیلی Pardee RAND است.