
د کای، دانشمند دانشگاه هنگ کنگ، میگوید هوش مصنوعی بیشتر شبیه تغییرات اقلیمی است تا یک چالش ژئوپلیتیکی، و نیاز به یک روش تفکر جدید دارد. مت هالدین- ۸ ژوئن ۲۰۲۵
سالهاست که داستان هوش مصنوعی (AI) به عنوان یک رقابت پرمخاطره بین ایالات متحده و چین مطرح میشود – یک مسابقه تسلیحاتی فناوری با پیامدهای جهانی. اما برای دی کای، دانشمند پیشگام یادگیری ماشینی و مدافع اخلاق هوش مصنوعی، این چارچوببندی اساساً فناوری را اشتباه درک میکند.
دِ کای در مصاحبهای با روزنامهی پست در دانشگاه علوم و فناوری هنگکنگ، جایی که او استاد علوم کامپیوتر و مهندسی است، گفت: «ترجیح میدهم به آن به عنوان چالش تغییرات اقلیمی هوش مصنوعی فکر کنم. به معنای واقعی کلمه، هوش مصنوعی تغییری در اقلیم [اجتماعی] است که بشریت در آن رقابت میکند.»
دِ کای، که نام خانوادگیاش وو است اما در حرفهاش فقط از نام کوچکش استفاده میکند، چهار دهه را در خط مقدم تحقیقات هوش مصنوعی گذرانده است و به کار خود در پردازش زبان طبیعی در دورهی دکترای خود در دانشگاه کالیفرنیا، برکلی، در اوایل دههی ۱۹۸۰ برمیگردد. کتاب جدید او، «پرورش هوش مصنوعی: راهنمای ضروری برای تربیت آیندهی ما»، که در ۳ ژوئن منتشر شد، استدلال میکند که زندگی با هوش مصنوعی نیاز به یک تغییر الگو دارد – تغییری که در آن مردم این سیستمها را طوری «فرزندپروری» کنند که انگار فرزندانشان هستند.
دِ کای مینویسد: «چه چیزی در زندگی مردم باعث میشود که آنها بیشتر از همه بخواهند به نسخههای بهتری از خودشان تبدیل شوند؟ اکثر افراد بالغ میگویند بچهدار شدن.»
این استدلال ادامه میدهد، از آنجایی که هوش مصنوعی با جذب هر آنچه ما به صورت آنلاین انجام میدهیم و میگوییم، یاد میگیرد، باید در مورد اینکه در کنار «فرزندان» هوش مصنوعی خود چه کسی هستیم، وظیفهشناس باشیم.
این نگرانی جدیدی برای دِ کای نیست، کسی که در هیئت مدیره انجمن آینده خدمت کرده و عضو افتتاحیه شورای اخلاق هوش مصنوعی کوتاه مدت گوگل بوده است.او در مصاحبهای در سال ۲۰۱۹ با واشنگتن پست، در مورد بسیاری از خطراتی که امروزه میبیند هشدار داد: پتانسیل هوش مصنوعی برای دستکاری، تعمیق شکافهای اجتماعی و توانمندسازی بازیگران بد با سلاحهای کشتار جمعی مانند سلاحهای زیستی. اما اکنون او در حال ترویج چارچوبی برای ساخت یک هوش مصنوعی «آگاهتر» است – سیستمهایی که قادر به تأمل در مورد تفکر خود هستند.
دی کای با اشاره به تلاشهای فعلی برای حل مشکل به اصطلاح همترازی – تنظیم منافع هوش مصنوعی برای انعکاس منافع بشریت – پرسید: «همترازی با چه؟»
او با اشاره به برکناری کوتاه مدت سم آلتمن، یکی از بنیانگذاران این استارتاپ هوش مصنوعی از سمت مدیرعاملی در سال ۲۰۲۳، گفت: «شما حتی نمیتوانید تعداد انگشتشماری از اعضای هیئت مدیره و مدیران OpenAI را برای همترازی در مورد کار درست، متقاعد کنید.»
دی کای استدلال میکند که مانند کودکان، انواع مختلفی از هوش مصنوعی با ارزشهای مختلف وجود خواهد داشت. او اذعان میکند که افرادی وجود خواهند داشت که والدین بدی برای هوش مصنوعی خود هستند، اما این امر فرزندپروری خوب را از اهمیت بیشتری برخوردار میکند.
با افزایش توانمندی سیستمهای هوش مصنوعی، در نهایت ثابت میشود که آنها بیش از حد باهوش هستند که بتوان آنها را با قوانین سختگیرانهای مانند سه قانون معروف رباتیک ایزاک آسیموف، نویسنده داستانهای علمی تخیلی، اداره کرد. او گفت که همیشه روزنهها و تناقضهایی وجود دارد، بنابراین ما باید الگوهای خوبی برای مقابله با انگیزههای بد باشیم.
دی کای، هوش مصنوعی مولد امروزی را به تفکر «سیستم ۱» تشبیه میکند – سریع، تکانشی و احساسی. او پیشبینی میکند که این مدلها به زودی با سیستمهای «سیستم ۲» روشمندتر و منطقمحورتر ادغام خواهند شد.او میگوید، در حال حاضر، ما در مورد ارائه الگوی خوب برای هوش مصنوعی «فوقالعاده سهلانگار» بودهایم. از نظر او، فرزندپروری بهتر به معنای مشارکت بیشتر است: ایجاد چیزی شبیه به انجمنهای اولیا و مربیان برای هوش مصنوعی، و برگزاری شرکتهای فناوری.
او استدلال میکند که با توجه به اینکه جوامع ارزشهای متفاوتی دارند، هوش مصنوعی باید بر اساس «فراارزشها» – ارزشهایی درباره ارزشها – آموزش داده شود. او از قانون طلایی به عنوان مثال استفاده میکند و خاطرنشان میکند که نوعی از اصل «با دیگران همانطور رفتار کن که میخواهی با تو رفتار کنند» را میتوان در فرهنگهای مختلف یافت، اگرچه کاربرد آن متفاوت است.
با این حال، دی کای از انجام برخی قضاوتهای ارزشی طفره نمیرود. او مینویسد: «ما باید هوش مصنوعی را طوری تربیت کنیم که برای تنوع، خلاقیت، احترام، شمول و روشنفکری ارزش قائل شوند». آنها همچنین باید «در اصول روشنگری» با احترام به «استدلال آگاهانه، مشاهده عینی، از نظر آماری صحیح، از نظر منطقی سازگار و کاملاً آگاهانه» آموزش ببینند – به این معنی که هوش مصنوعی باید «طرز فکر روش علمی» داشته باشد.
اما حتی انسانها هنوز هم در مورد این آرمانها اختلاف نظر دارند. برای مثال، دولت دونالد ترامپ، رئیس جمهور ایالات متحده، برنامههایی را هدف قرار داده است که به عنوان همسو با ارزشهای «تنوع، برابری و شمول» تلقی میشوند. در همین حال، چین سانسور سیاسی را عاقلانهترین راه برای آموزش هوش مصنوعی خود میداند.
د کای گفت: «بسیاری از این سوالات بر اساس این فرض است که هوش مصنوعی قرار است مانند ChatGPT و DeepSeek ایستا باقی بماند و این شکل هوش مصنوعی است و نحوه آموزش آنها نیز همین است. این از نظر فنی نادرست است.»
این همان چیزی است که در نظر گرفتن طرز فکر والدین را از نظر د کای بسیار حیاتی میکند. او گفت: «[هوش مصنوعی] قرار است مانند انسانها پویا باشد. و آنها به یادگیری ادامه خواهند داد، تحت تأثیر هر کسی که در اطرافشان است و با چه کسی به صورت آنلاین صحبت میکنند، قرار خواهند گرفت، درست مانند ما.»
کتاب «پرورش هوش مصنوعی» به عنوان رسالهای نه در مورد روشهای خاص آموزش هوش مصنوعی، بلکه بیشتر در مورد چگونگی ادامه گفتگوهای فعلی ما در حوزه دیجیتال است تا هوش مصنوعی بتواند با نظرات مختلف درست مانند انسانها دست و پنجه نرم کند.همانطور که او مینویسد، شکست در این تلاش میتواند به معنای پایان دادن به «روانآزارهایی ناتوان از همدلی شناختی» باشد.
«آخرین چیزی که میتوانیم با دسترسی گسترده فناوری در عصر خود، از عهدهی پرورش آن برآییم، جامعهستیزان مصنوعی، روانآزارهای مصنوعی است.»