Tom Chavez@tommychavez سپتامبر15 – 2023-مرد متفکر نشسته. مفهوم سردرگمی و بیش از حد فکر کردن. این یک تصویر رندر سه بعدی است
اعتبار تصویر: MihaelavRosu
تام چاوز یکی از بنیانگذاران استودیوی استارتاپی super{set} است. رئیس پروژه فناوری اخلاقی، اتاق فکر و انجام. و مدیر عامل و یکی از بنیانگذاران Boombox.io.
زمانی که ایلان ماسک ماه گذشته تیمی را که در پشت شرکت هوش مصنوعی جدید خود یعنی xAI معرفی شد، که طبق گزارشها مأموریت آن «درک ماهیت واقعی جهان» است، بر اهمیت پاسخگویی به نگرانیهای وجودی در مورد وعده و خطر هوش مصنوعی تأکید کرد.
این که آیا شرکت تازه تأسیس واقعاً میتواند رفتار خود را برای کاهش خطرات احتمالی فناوری هماهنگ کند، یا اینکه صرفاً به دنبال برتری نسبت به OpenAI است، تشکیل آن سؤالات مهمی را در مورد اینکه شرکتها واقعاً چگونه باید به نگرانیهای مربوط به هوش مصنوعی پاسخ دهند، مطرح میکند. به طور مشخص:
چه کسی در داخل، بهویژه در بزرگترین شرکتهای مدل بنیادی، واقعاً در مورد تأثیرات کوتاهمدت و بلندمدت فناوری که میسازد سؤال میپرسد؟
آیا آنها با لنز و تخصص مناسب به مسائل می پردازند؟
آیا آنها به اندازه کافی ملاحظات تکنولوژیک را با مسائل اجتماعی، اخلاقی و معرفتی متعادل می کنند؟
در دانشگاه در رشته علوم کامپیوتر و فلسفه تحصیل کردم که در آن زمان ترکیبی نامتجانس به نظر می رسید. در یک کلاس درس، اطرافم را افرادی فراگرفته بودند که عمیقاً درباره اخلاق («درست چیست، چه چیزی اشتباه است؟»)، هستیشناسی («واقعاً چه چیزی وجود دارد؟»)، و معرفتشناسی («در واقع ما چه میدانیم؟») فکر میکردند. در دیگری، من توسط افرادی احاطه شده بودم که الگوریتم، کد و ریاضی انجام می دادند.
بیست سال بعد، به دلیل شانس و آینده نگری، این ترکیب در زمینه چگونگی تفکر شرکت ها در مورد هوش مصنوعی چندان ناهماهنگ نیست. خطرات تأثیر هوش مصنوعی وجودی است و شرکتها باید تعهدی معتبر داشته باشند که شایسته آن سهام باشد.
هوش مصنوعی اخلاقی نیاز به درک عمیقی از آنچه وجود دارد، آنچه میخواهیم، آنچه فکر میکنیم میدانیم و اینکه هوش چگونه آشکار میشود، دارد.
این به این معنی است که تیمهای رهبری خود را با سهامدارانی که به اندازه کافی مجهز هستند تا عواقب فناوری را که میسازند، مرتب کنند – که فراتر از تخصص طبیعی مهندسانی است که کد مینویسند و APIها را سخت میکنند.
هوش مصنوعی یک چالش منحصراً علم کامپیوتر، چالش علوم اعصاب یا چالش بهینه سازی نیست. این یک چالش انسانی است برای پرداختن به آن، باید نسخهای ماندگار از «جلسه ذهنهای هوش مصنوعی» را در نظر بگیریم، که از نظر وسعتی معادل گردهمایی بین رشتهای اوپنهایمر در صحرای نیومکزیکو (جایی که من در آنجا متولد شدم) در اوایل دهه 1940 است.
برخورد میل انسان با پیامدهای ناخواسته هوش مصنوعی منجر به چیزی می شود که محققان آن را «مشکل هم ترازی» می نامند که به طور ماهرانه در کتاب «مشکل همسویی» برایان کریستین توضیح داده شده است. اساساً، ماشینها روشی برای تفسیر نادرست جامعترین دستورالعملهای ما دارند، و ما، بهعنوان اربابان ادعایی آنها، سابقه ضعیفی در درک کامل آنها از آنچه فکر میکنیم میخواهیم انجام دهند، داریم.
نتیجه خالص: الگوریتمها میتوانند سوگیری و اطلاعات نادرست را پیش ببرند و در نتیجه ساختار جامعه ما را خراب کنند. در یک سناریوی طولانیمدت و دیستوپیکتر، آنها میتوانند «نوبت خائنانه» را در پیش بگیرند و الگوریتمهایی که کنترل بیش از حد بر عملکرد تمدن خود را به آنها واگذار کردهایم، همه ما را تحت تأثیر قرار میدهند.
برخلاف چالش اوپنهایمر، که علمی بود، هوش مصنوعی اخلاقی مستلزم درک عمیقی از آنچه وجود دارد، آنچه میخواهیم، آنچه فکر میکنیم میدانیم و چگونگی آشکار شدن هوش نیاز دارد. این اقدامی است که قطعاً تحلیلی است، هرچند ماهیت آن کاملاً علمی نیست. این امر مستلزم رویکردی یکپارچه است که ریشه در تفکر انتقادی هم از علوم انسانی و هم در علوم دارد.
متفکران حوزه های مختلف اکنون بیش از هر زمان دیگری نیاز به همکاری نزدیک دارند. تیم رویایی برای شرکتی که به دنبال این است که واقعاً این کار را درست انجام دهد، چیزی شبیه به:
- رئیس هوش مصنوعی و کارشناس اخلاق داده: این شخص به مسائل کوتاهمدت و بلندمدت دادهها و هوش مصنوعی میپردازد، از جمله بیان و اتخاذ اصول دادههای اخلاقی، توسعه معماریهای مرجع برای استفاده از دادههای اخلاقی، حقوق شهروندی، اما نه محدود به آن. نحوه مصرف و استفاده از داده های آنها توسط هوش مصنوعی و پروتکل هایی برای شکل دادن و کنترل مناسب رفتار هوش مصنوعی. این باید جدا از مدیر ارشد فناوری باشد، که نقش او عمدتاً اجرای یک طرح فناوری است نه رسیدگی به پیامدهای آن. این یک نقش ارشد در کارکنان مدیرعامل است که شکاف ارتباطی بین تصمیم گیرندگان داخلی و تنظیم کننده ها را پر می کند. شما نمی توانید یک متخصص اخلاق داده را از یک اخلاق شناس ارشد هوش مصنوعی جدا کنید: داده ها پیش شرط و سوخت هوش مصنوعی هستند. هوش مصنوعی به خودی خود داده های جدیدی تولید می کند.
- معمار ارشد فلسفه: این نقش به نگرانیهای بلندمدت وجودی با یک مدیر اصلی میپردازد.روی «مشکل هم ترازی» تمرکز نماید: نحوه تعریف پادمانها، خطمشیها، درهای پشتی و سوئیچها برای هوش مصنوعی تا حداکثر ممکن را با نیازها و اهداف انسان هماهنگ کند.
- متخصص علوم اعصاب ارشد: این شخص به سؤالات مهم احساسات و چگونگی آشکار شدن هوش در مدلهای هوش مصنوعی میپردازد، چه مدلهایی از شناخت انسانی برای توسعه هوش مصنوعی مرتبطتر و مفیدتر هستند، و هوش مصنوعی چه چیزی میتواند در مورد شناخت انسان به ما بیاموزد.
به طور اساسی، برای تبدیل خروجی تیم رویایی به فناوری مسئول و مؤثر، به فناورانی نیاز داریم که بتوانند مفاهیم انتزاعی و سؤالات مطرح شده توسط «The Three» را به نرمافزار کاربردی ترجمه کنند. مانند همه گروههای فناوری کاری، این بستگی به رهبر/طراح محصول دارد که کل تصویر را میبیند.
نسل جدیدی از رهبران محصولات مبتکر در “عصر هوش مصنوعی” باید به راحتی در لایه های جدیدی از پشته فناوری که زیرساخت مدل برای هوش مصنوعی و همچنین خدمات جدید برای مواردی مانند تنظیم دقیق و توسعه مدل اختصاصی را در بر می گیرد، حرکت کند. آنها باید به اندازه کافی مبتکر باشند تا بتوانند جریانهای کاری «انسان در حلقه» را برای پیادهسازی محافظها، دربهای پشتی و سوئیچهای کشتن که توسط معمار اصلی فیلسوف تجویز شده است، تصور و طراحی کنند. آنها باید توانایی یک مهندس رنسانس را داشته باشند تا خطمشیها و پروتکلهای هوش مصنوعی ارشد و متخصصان اخلاق داده را به سیستمهای کاری ترجمه کنند. آنها باید از تلاشهای عصبشناس ارشد برای حرکت بین ماشینها و ذهنها و تشخیص کافی یافتههایی با پتانسیل ایجاد هوش مصنوعی هوشمندتر و مسئولانهتر قدردانی کنند.
بیایید به OpenAI به عنوان یکی از نمونههای اولیه یک شرکت مدل بنیادی و توسعهیافته، بسیار تأثیرگذار که با این چالش نیروی انسانی دست و پنجه نرم میکند، نگاه کنیم: آنها یک دانشمند ارشد (که همچنین یکی از بنیانگذاران آنها است)، یک رئیس سیاست جهانی، و یک ژنرال مشاوره دارند.
با این حال، بدون سه موقعیتی که در بالا در پستهای رهبری اجرایی توضیح دادم، بزرگترین سؤالات پیرامون پیامدهای فناوری آنها حل نشده باقی میماند. اگر سام آلتمن نگران برخورد با درمان و هماهنگی ابرهوش به روشی گسترده و متفکرانه است، ایجاد یک ترکیب جامع نگر نقطه خوبی برای شروع است.
ما باید آیندهای مسئولانهتر بسازیم که در آن شرکتها مراقب دادههای مردم باشند و نوآوری مبتنی بر هوش مصنوعی مترادف با خوب باشد. در گذشته، تیمهای حقوقی روی مسائلی مانند حریم خصوصی کار میکردند، اما باهوشترین آنها تشخیص میدهند که نمیتوانند مشکلات استفاده از دادههای اخلاقی در عصر هوش مصنوعی را خودشان حل کنند.
آوردن دیدگاههای گسترده و متفاوت به جدولی که در آن تصمیمها گرفته میشود، تنها راه دستیابی به دادههای اخلاقی و هوش مصنوعی در خدمت شکوفایی انسان است – در حالی که ماشینها را در جای خود نگه میدارد.