نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

9 مرداد 1404 4:17 ب.ظ

دانشمند هوش مصنوعی، دیدگاه جدیدی برای «فرزندپروری» هوش مصنوعی ارائه می‌دهد .

دانشمند هوش مصنوعی، دیدگاه جدیدی برای «فرزندپروری» هوش مصنوعی ارائه می‌دهد .

د کای، دانشمند دانشگاه هنگ کنگ، می‌گوید هوش مصنوعی بیشتر شبیه تغییرات اقلیمی است تا یک چالش ژئوپلیتیکی، و نیاز به یک روش تفکر جدید دارد. مت هالدین- ۸ ژوئن ۲۰۲۵

سال‌هاست که داستان هوش مصنوعی (AI) به عنوان یک رقابت پرمخاطره بین ایالات متحده و چین مطرح می‌شود – یک مسابقه تسلیحاتی فناوری با پیامدهای جهانی. اما برای دی کای، دانشمند پیشگام یادگیری ماشینی و مدافع اخلاق هوش مصنوعی، این چارچوب‌بندی اساساً فناوری را اشتباه درک می‌کند.

دِ کای در مصاحبه‌ای با روزنامه‌ی پست در دانشگاه علوم و فناوری هنگ‌کنگ، جایی که او استاد علوم کامپیوتر و مهندسی است، گفت: «ترجیح می‌دهم به آن به عنوان چالش تغییرات اقلیمی هوش مصنوعی فکر کنم. به معنای واقعی کلمه، هوش مصنوعی تغییری در اقلیم [اجتماعی] است که بشریت در آن رقابت می‌کند.»

دِ کای، که نام خانوادگی‌اش وو است اما در حرفه‌اش فقط از نام کوچکش استفاده می‌کند، چهار دهه را در خط مقدم تحقیقات هوش مصنوعی گذرانده است و به کار خود در پردازش زبان طبیعی در دوره‌ی دکترای خود در دانشگاه کالیفرنیا، برکلی، در اوایل دهه‌ی ۱۹۸۰ برمی‌گردد. کتاب جدید او، «پرورش هوش مصنوعی: راهنمای ضروری برای تربیت آینده‌ی ما»، که در ۳ ژوئن منتشر شد، استدلال می‌کند که زندگی با هوش مصنوعی نیاز به یک تغییر الگو دارد – تغییری که در آن مردم این سیستم‌ها را طوری «فرزندپروری» کنند که انگار فرزندانشان هستند.

دِ کای می‌نویسد: «چه چیزی در زندگی مردم باعث می‌شود که آنها بیشتر از همه بخواهند به نسخه‌های بهتری از خودشان تبدیل شوند؟ اکثر افراد بالغ می‌گویند بچه‌دار شدن.»

این استدلال ادامه می‌دهد، از آنجایی که هوش مصنوعی با جذب هر آنچه ما به صورت آنلاین انجام می‌دهیم و می‌گوییم، یاد می‌گیرد، باید در مورد اینکه در کنار «فرزندان» هوش مصنوعی خود چه کسی هستیم، وظیفه‌شناس باشیم.

این نگرانی جدیدی برای دِ کای نیست، کسی که در هیئت مدیره انجمن آینده خدمت کرده و عضو افتتاحیه شورای اخلاق هوش مصنوعی کوتاه مدت گوگل بوده است.او در مصاحبه‌ای در سال ۲۰۱۹ با واشنگتن پست، در مورد بسیاری از خطراتی که امروزه می‌بیند هشدار داد: پتانسیل هوش مصنوعی برای دستکاری، تعمیق شکاف‌های اجتماعی و توانمندسازی بازیگران بد با سلاح‌های کشتار جمعی مانند سلاح‌های زیستی. اما اکنون او در حال ترویج چارچوبی برای ساخت یک هوش مصنوعی «آگاه‌تر» است – سیستم‌هایی که قادر به تأمل در مورد تفکر خود هستند.

دی کای با اشاره به تلاش‌های فعلی برای حل مشکل به اصطلاح هم‌ترازی – تنظیم منافع هوش مصنوعی برای انعکاس منافع بشریت – پرسید: «هم‌ترازی با چه؟»

او با اشاره به برکناری کوتاه مدت سم آلتمن، یکی از بنیانگذاران این استارتاپ هوش مصنوعی از سمت مدیرعاملی در سال ۲۰۲۳، گفت: «شما حتی نمی‌توانید تعداد انگشت‌شماری از اعضای هیئت مدیره و مدیران OpenAI را برای هم‌ترازی در مورد کار درست، متقاعد کنید.»

دی کای استدلال می‌کند که مانند کودکان، انواع مختلفی از هوش مصنوعی با ارزش‌های مختلف وجود خواهد داشت. او اذعان می‌کند که افرادی وجود خواهند داشت که والدین بدی برای هوش مصنوعی خود هستند، اما این امر فرزندپروری خوب را از اهمیت بیشتری برخوردار می‌کند.

با افزایش توانمندی سیستم‌های هوش مصنوعی، در نهایت ثابت می‌شود که آنها بیش از حد باهوش هستند که بتوان آنها را با قوانین سختگیرانه‌ای مانند سه قانون معروف رباتیک ایزاک آسیموف، نویسنده داستان‌های علمی تخیلی، اداره کرد. او گفت که همیشه روزنه‌ها و تناقض‌هایی وجود دارد، بنابراین ما باید الگوهای خوبی برای مقابله با انگیزه‌های بد باشیم.

دی کای، هوش مصنوعی مولد امروزی را به تفکر «سیستم ۱» تشبیه می‌کند – سریع، تکانشی و احساسی. او پیش‌بینی می‌کند که این مدل‌ها به زودی با سیستم‌های «سیستم ۲» روشمندتر و منطق‌محورتر ادغام خواهند شد.او می‌گوید، در حال حاضر، ما در مورد ارائه الگوی خوب برای هوش مصنوعی «فوق‌العاده سهل‌انگار» بوده‌ایم. از نظر او، فرزندپروری بهتر به معنای مشارکت بیشتر است: ایجاد چیزی شبیه به انجمن‌های اولیا و مربیان برای هوش مصنوعی، و برگزاری شرکت‌های فناوری.

او استدلال می‌کند که با توجه به اینکه جوامع ارزش‌های متفاوتی دارند، هوش مصنوعی باید بر اساس «فراارزش‌ها» – ارزش‌هایی درباره ارزش‌ها – آموزش داده شود. او از قانون طلایی به عنوان مثال استفاده می‌کند و خاطرنشان می‌کند که نوعی از اصل «با دیگران همانطور رفتار کن که می‌خواهی با تو رفتار کنند» را می‌توان در فرهنگ‌های مختلف یافت، اگرچه کاربرد آن متفاوت است.

با این حال، دی کای از انجام برخی قضاوت‌های ارزشی طفره نمی‌رود. او می‌نویسد: «ما باید هوش مصنوعی را طوری تربیت کنیم که برای تنوع، خلاقیت، احترام، شمول و روشنفکری ارزش قائل شوند». آنها همچنین باید «در اصول روشنگری» با احترام به «استدلال آگاهانه، مشاهده عینی، از نظر آماری صحیح، از نظر منطقی سازگار و کاملاً آگاهانه» آموزش ببینند – به این معنی که هوش مصنوعی باید «طرز فکر روش علمی» داشته باشد.

اما حتی انسان‌ها هنوز هم در مورد این آرمان‌ها اختلاف نظر دارند. برای مثال، دولت دونالد ترامپ، رئیس جمهور ایالات متحده، برنامه‌هایی را هدف قرار داده است که به عنوان همسو با ارزش‌های «تنوع، برابری و شمول» تلقی می‌شوند. در همین حال، چین سانسور سیاسی را عاقلانه‌ترین راه برای آموزش هوش مصنوعی خود می‌داند.

د کای گفت: «بسیاری از این سوالات بر اساس این فرض است که هوش مصنوعی قرار است مانند ChatGPT و DeepSeek ایستا باقی بماند و این شکل هوش مصنوعی است و نحوه آموزش آنها نیز همین است. این از نظر فنی نادرست است.»

این همان چیزی است که در نظر گرفتن طرز فکر والدین را از نظر د کای بسیار حیاتی می‌کند. او گفت: «[هوش مصنوعی] قرار است مانند انسان‌ها پویا باشد. و آنها به یادگیری ادامه خواهند داد، تحت تأثیر هر کسی که در اطرافشان است و با چه کسی به صورت آنلاین صحبت می‌کنند، قرار خواهند گرفت، درست مانند ما.»

کتاب «پرورش هوش مصنوعی» به عنوان رساله‌ای نه در مورد روش‌های خاص آموزش هوش مصنوعی، بلکه بیشتر در مورد چگونگی ادامه گفتگوهای فعلی ما در حوزه دیجیتال است تا هوش مصنوعی بتواند با نظرات مختلف درست مانند انسان‌ها دست و پنجه نرم کند.همانطور که او می‌نویسد، شکست در این تلاش می‌تواند به معنای پایان دادن به «روان‌آزارهایی ناتوان از همدلی شناختی» باشد.

«آخرین چیزی که می‌توانیم با دسترسی گسترده فناوری در عصر خود، از عهده‌ی پرورش آن برآییم، جامعه‌ستیزان مصنوعی، روان‌آزارهای مصنوعی است.»

https://www.scmp.com

آیا این نوشته برایتان مفید بود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *