نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

1 آذر 1403 7:37 ب.ظ

پاسخ به بزرگترین سوالات هوش مصنوعی نیازمند رویکردی بین رشته ای است

Tom Chavez@tommychavez سپتامبر15 – 2023-مرد متفکر نشسته. مفهوم سردرگمی و بیش از حد فکر کردن. این یک تصویر رندر سه بعدی است

اعتبار تصویر: MihaelavRosu

تام چاوز یکی از بنیانگذاران استودیوی استارتاپی super{set} است. رئیس پروژه فناوری اخلاقی، اتاق فکر و انجام. و مدیر عامل و یکی از بنیانگذاران Boombox.io.

زمانی که ایلان ماسک ماه گذشته تیمی را که در پشت شرکت هوش مصنوعی جدید خود یعنی xAI معرفی شد، که طبق گزارش‌ها مأموریت آن «درک ماهیت واقعی جهان» است، بر اهمیت پاسخگویی به نگرانی‌های وجودی در مورد وعده و خطر هوش مصنوعی تأکید کرد.

این که آیا شرکت تازه تأسیس واقعاً می‌تواند رفتار خود را برای کاهش خطرات احتمالی فناوری هماهنگ کند، یا اینکه صرفاً به دنبال برتری نسبت به OpenAI است، تشکیل آن سؤالات مهمی را در مورد اینکه شرکت‌ها واقعاً چگونه باید به نگرانی‌های مربوط به هوش مصنوعی پاسخ دهند، مطرح می‌کند. به طور مشخص:

     چه کسی در داخل، به‌ویژه در بزرگترین شرکت‌های مدل بنیادی، واقعاً در مورد تأثیرات کوتاه‌مدت و بلندمدت فناوری که می‌سازد سؤال می‌پرسد؟

     آیا آنها با لنز و تخصص مناسب به مسائل می پردازند؟

     آیا آنها به اندازه کافی ملاحظات تکنولوژیک را با مسائل اجتماعی، اخلاقی و معرفتی متعادل می کنند؟

در دانشگاه در رشته علوم کامپیوتر و فلسفه تحصیل کردم که در آن زمان ترکیبی نامتجانس به نظر می رسید. در یک کلاس درس، اطرافم را افرادی فراگرفته بودند که عمیقاً درباره اخلاق («درست چیست، چه چیزی اشتباه است؟»)، هستی‌شناسی («واقعاً چه چیزی وجود دارد؟»)، و معرفت‌شناسی («در واقع ما چه می‌دانیم؟») فکر می‌کردند. در دیگری، من توسط افرادی احاطه شده بودم که الگوریتم، کد و ریاضی انجام می دادند.

بیست سال بعد، به دلیل شانس و آینده نگری، این ترکیب در زمینه چگونگی تفکر شرکت ها در مورد هوش مصنوعی چندان ناهماهنگ نیست. خطرات تأثیر هوش مصنوعی وجودی است و شرکت‌ها باید تعهدی معتبر داشته باشند که شایسته آن سهام باشد.

     هوش مصنوعی اخلاقی نیاز به درک عمیقی از آنچه وجود دارد، آنچه می‌خواهیم، آنچه فکر می‌کنیم می‌دانیم و اینکه هوش چگونه آشکار می‌شود، دارد.

این به این معنی است که تیم‌های رهبری خود را با سهامدارانی که به اندازه کافی مجهز هستند تا عواقب فناوری را که می‌سازند، مرتب کنند – که فراتر از تخصص طبیعی مهندسانی است که کد می‌نویسند و APIها را سخت می‌کنند.

هوش مصنوعی یک چالش منحصراً علم کامپیوتر، چالش علوم اعصاب یا چالش بهینه سازی نیست. این یک چالش انسانی است برای پرداختن به آن، باید نسخه‌ای ماندگار از «جلسه ذهن‌های هوش مصنوعی» را در نظر بگیریم، که از نظر وسعتی معادل گردهمایی بین رشته‌ای اوپنهایمر در صحرای نیومکزیکو (جایی که من در آنجا متولد شدم) در اوایل دهه 1940 است.

برخورد میل انسان با پیامدهای ناخواسته هوش مصنوعی منجر به چیزی می شود که محققان آن را «مشکل هم ترازی» می نامند که به طور ماهرانه در کتاب «مشکل همسویی» برایان کریستین توضیح داده شده است. اساساً، ماشین‌ها روشی برای تفسیر نادرست جامع‌ترین دستورالعمل‌های ما دارند، و ما، به‌عنوان اربابان ادعایی آن‌ها، سابقه ضعیفی در درک کامل آن‌ها از آنچه فکر می‌کنیم می‌خواهیم انجام دهند، داریم.

نتیجه خالص: الگوریتم‌ها می‌توانند سوگیری و اطلاعات نادرست را پیش ببرند و در نتیجه ساختار جامعه ما را خراب کنند. در یک سناریوی طولانی‌مدت و دیستوپیک‌تر، آنها می‌توانند «نوبت خائنانه» را در پیش بگیرند و الگوریتم‌هایی که کنترل بیش از حد بر عملکرد تمدن خود را به آنها واگذار کرده‌ایم، همه ما را تحت تأثیر قرار می‌دهند.

برخلاف چالش اوپنهایمر، که علمی بود، هوش مصنوعی اخلاقی مستلزم درک عمیقی از آنچه وجود دارد، آنچه می‌خواهیم، آنچه فکر می‌کنیم می‌دانیم و چگونگی آشکار شدن هوش نیاز دارد. این اقدامی است که قطعاً تحلیلی است، هرچند ماهیت آن کاملاً علمی نیست. این امر مستلزم رویکردی یکپارچه است که ریشه در تفکر انتقادی هم از علوم انسانی و هم در علوم دارد.

متفکران حوزه های مختلف اکنون بیش از هر زمان دیگری نیاز به همکاری نزدیک دارند. تیم رویایی برای شرکتی که به دنبال این است که واقعاً این کار را درست انجام دهد، چیزی شبیه به:

  • رئیس هوش مصنوعی و کارشناس اخلاق داده: این شخص به مسائل کوتاه‌مدت و بلندمدت داده‌ها و هوش مصنوعی می‌پردازد، از جمله بیان و اتخاذ اصول داده‌های اخلاقی، توسعه معماری‌های مرجع برای استفاده از داده‌های اخلاقی، حقوق شهروندی، اما نه محدود به آن. نحوه مصرف و استفاده از داده های آنها توسط هوش مصنوعی و پروتکل هایی برای شکل دادن و کنترل مناسب رفتار هوش مصنوعی. این باید جدا از مدیر ارشد فناوری باشد، که نقش او عمدتاً اجرای یک طرح فناوری است نه رسیدگی به پیامدهای آن. این یک نقش ارشد در کارکنان مدیرعامل است که شکاف ارتباطی بین تصمیم گیرندگان داخلی و تنظیم کننده ها را پر می کند. شما نمی توانید یک متخصص اخلاق داده را از یک اخلاق شناس ارشد هوش مصنوعی جدا کنید: داده ها پیش شرط و سوخت هوش مصنوعی هستند. هوش مصنوعی به خودی خود داده های جدیدی تولید می کند.
  • معمار ارشد فلسفه: این نقش به نگرانی‌های بلندمدت وجودی با یک مدیر اصلی می‌پردازد.روی «مشکل هم ترازی» تمرکز نماید: نحوه تعریف پادمان‌ها، خط‌مشی‌ها، درهای پشتی و سوئیچ‌ها برای هوش مصنوعی تا حداکثر ممکن را با نیازها و اهداف انسان هماهنگ کند.
  • متخصص علوم اعصاب ارشد: این شخص به سؤالات مهم احساسات و چگونگی آشکار شدن هوش در مدل‌های هوش مصنوعی می‌پردازد، چه مدل‌هایی از شناخت انسانی برای توسعه هوش مصنوعی مرتبط‌تر و مفیدتر هستند، و هوش مصنوعی چه چیزی می‌تواند در مورد شناخت انسان به ما بیاموزد.

به طور اساسی، برای تبدیل خروجی تیم رویایی به فناوری مسئول و مؤثر، به فناورانی نیاز داریم که بتوانند مفاهیم انتزاعی و سؤالات مطرح شده توسط «The Three» را به نرم‌افزار کاربردی ترجمه کنند. مانند همه گروه‌های فناوری کاری، این بستگی به رهبر/طراح محصول دارد که کل تصویر را می‌بیند.

نسل جدیدی از رهبران محصولات مبتکر در “عصر هوش مصنوعی” باید به راحتی در لایه های جدیدی از پشته فناوری که زیرساخت مدل برای هوش مصنوعی و همچنین خدمات جدید برای مواردی مانند تنظیم دقیق و توسعه مدل اختصاصی را در بر می گیرد، حرکت کند. آن‌ها باید به اندازه کافی مبتکر باشند تا بتوانند جریان‌های کاری «انسان در حلقه» را برای پیاده‌سازی محافظ‌ها، درب‌های پشتی و سوئیچ‌های کشتن که توسط معمار اصلی فیلسوف تجویز شده است، تصور و طراحی کنند. آنها باید توانایی یک مهندس رنسانس را داشته باشند تا خط‌مشی‌ها و پروتکل‌های هوش مصنوعی ارشد و متخصصان اخلاق داده را به سیستم‌های کاری ترجمه کنند. آن‌ها باید از تلاش‌های عصب‌شناس ارشد برای حرکت بین ماشین‌ها و ذهن‌ها و تشخیص کافی یافته‌هایی با پتانسیل ایجاد هوش مصنوعی هوشمندتر و مسئولانه‌تر قدردانی کنند.

بیایید به OpenAI به عنوان یکی از نمونه‌های اولیه یک شرکت مدل بنیادی و توسعه‌یافته، بسیار تأثیرگذار که با این چالش نیروی انسانی دست و پنجه نرم می‌کند، نگاه کنیم: آنها یک دانشمند ارشد (که همچنین یکی از بنیانگذاران آنها است)، یک رئیس سیاست جهانی، و یک ژنرال مشاوره دارند.

با این حال، بدون سه موقعیتی که در بالا در پست‌های رهبری اجرایی توضیح دادم، بزرگترین سؤالات پیرامون پیامدهای فناوری آنها حل نشده باقی می‌ماند. اگر سام آلتمن نگران برخورد با درمان و هماهنگی ابرهوش به روشی گسترده و متفکرانه است، ایجاد یک ترکیب جامع نگر نقطه خوبی برای شروع است.

ما باید آینده‌ای مسئولانه‌تر بسازیم که در آن شرکت‌ها مراقب داده‌های مردم باشند و نوآوری مبتنی بر هوش مصنوعی مترادف با خوب باشد. در گذشته، تیم‌های حقوقی روی مسائلی مانند حریم خصوصی کار می‌کردند، اما باهوش‌ترین آنها تشخیص می‌دهند که نمی‌توانند مشکلات استفاده از داده‌های اخلاقی در عصر هوش مصنوعی را خودشان حل کنند.

آوردن دیدگاه‌های گسترده و متفاوت به جدولی که در آن تصمیم‌ها گرفته می‌شود، تنها راه دستیابی به داده‌های اخلاقی و هوش مصنوعی در خدمت شکوفایی انسان است – در حالی که ماشین‌ها را در جای خود نگه می‌دارد.

https://techcrunch.com

آیا این نوشته برایتان مفید بود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *