نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

2 آذر 1403 4:46 ق.ظ

اهمیت هوش مصنوعی قابل توضیح برای حذف سوگیری در عصر ChatGPT

3 آگوست 2023-© shutterstock/Gorodenkoff

آدام لیبرمن، رئیس هوش مصنوعی و یادگیری ماشین در Finastra، توضیح می‌دهد که چگونه هوش مصنوعی قابل توضیح می‌تواند به حذف سوگیری کمک کند که در عصر ChatGPT مهم است.

از ابتدای پیدایش هوش مصنوعی، این فناوری منبع هیجان، نگرانی متناوب و البته پیشرفت در صنایع بوده است.

از Skynet گرفته تا قابلیت‌های تشخیصی انقلابی در مراقبت‌های بهداشتی، هوش مصنوعی این قدرت را دارد که هم تخیل را جذب کند و هم نوآوری را هدایت کند.

برای عموم مردم، بحث‌های پیرامون هوش مصنوعی معمولاً بر سناریوهای عجیب و غریب روز قیامت، نگرانی‌ها در مورد تصاحب ربات‌ها از مشاغل ما، یا هیجان در مورد اینکه چگونه اتوماسیون ممکن است پارادایم کار و زندگی متعادل‌تری را ایجاد کند، متمرکز است. برای بسیاری، کاربرد عملی و درک هوش مصنوعی تا حد زیادی از دید پنهان مانده است، که منجر به درک نادرست خلاء شده است.

قانع‌کننده‌ترین موارد استفاده از هوش مصنوعی مدت‌ها در اختیار کسب‌وکارها، دولت‌ها و غول‌های فناوری بوده است، اما همه این موارد با ورود OpenAI ChatGPT تغییر کرد. این اولین نمونه از یک مدل زبان بزرگ است و قابلیت‌های تولیدی آن به طور گسترده برای مصرف انبوه در دسترس است.

این یک زمین بازی هوش مصنوعی ایجاد کرده است که بلافاصله و به درجات مختلف در بسیاری از زمینه ها مفید است.با این حال، بارزترین مسئله و موضوعی که از آغاز هوش مصنوعی وجود داشته است، سوگیری است.

در زمان‌های اخیر، دانشمندان داده‌ها به دنبال راه‌هایی برای حذف سوگیری از مدل‌ها هستند، با فشار خاصی در صنایعی که نتایج مدل‌ها ممکن است بر مشتریان و کاربران نهایی تأثیر منفی بگذارد.

به عنوان مثال، وقتی صحبت از خدمات مالی می شود، الگوریتم های تصمیم گیری سال هاست که برای تسریع تصمیم گیری و بهبود خدمات استفاده می شود. اما در زمینه وام‌ها، تصمیم‌های «بد» یا «اشتباه» که محصول یک مدل مغرضانه است، می‌تواند پیامدهای فاجعه‌باری برای افراد داشته باشد.

حذف سوگیری نیازمند یک استراتژی چند جانبه است، از حصول اطمینان از اینکه تیم‌های علم داده و یادگیری ماشین نماینده جوامعی هستند که برای آنها راه‌حل می‌سازند – یا حداقل اصول ایجاد عدالت در مدل‌ها را درک می‌کنند – تا اطمینان از اینکه مدل‌ها قابل توضیح هستند.

انگیزه اصلی پشت هوش مصنوعی قابل توضیح به عنوان بهترین روش، حذف مدل‌های یادگیری ماشینی «جعبه سیاه» است. جعبه‌های سیاه اغلب ممکن است عملکرد بالایی داشته باشند، اما اگر نتایج آنها قابل درک نباشد، دفاع ملموس کمی در برابر اتهامات عدم دقت یا تبعیض وجود دارد.

در صنایعی که مدل‌های تصمیم‌گیری می‌توانند پیامدهای عمیقی داشته باشند، فشار برای افزایش مسئولیت‌پذیری هم از سوی مصرف‌کنندگان و هم از سوی تنظیم‌کننده‌ها در حال افزایش است، به همین دلیل است که به نظر من، کسب‌وکارها باید به دنبال پیشروی از منحنی باشند.

نکاتی برای توضیح هوش مصنوعی و حذف سوگیری

اجزای کلیدی یک مدل که نیاز به توضیح دارند هنگام در نظر گرفتن سوگیری اغلب نادیده گرفته می شوند. دانشمندان داده و مهندسان یادگیری ماشین یک خط لوله استاندارد برای کار در هنگام ساخت یک مدل دارند. البته داده ها در قلب همه چیز هستند، بنابراین ما با کاوش مجموعه داده های خود و شناسایی روابط بین آنها شروع می کنیم.

سپس به تجزیه و تحلیل داده های اکتشافی می پردازیم که به ما امکان می دهد داده ها را به یک فرم قابل استفاده تبدیل کنیم. سپس نوبت به بحث، پاکسازی و پیش پردازش داده ها قبل از شروع تولید ویژگی می رسد تا توضیحات مفیدتری از داده ها برای حل مشکل موجود ایجاد کنیم.

سپس با مدل‌های مختلف آزمایش می‌کنیم، پارامترها و فراپارامترها را تنظیم می‌کنیم، مدل‌ها را اعتبارسنجی می‌کنیم و چرخه را تا زمانی که راه‌حلی با کارایی بالا داشته باشیم تکرار می‌کنیم. مشکل اینجاست که بدون تلاش متعهدانه برای اطمینان از انصاف در هر مرحله، نتایج حاصل ممکن است مغرضانه باشد.

البته، ما هرگز نمی‌توانیم از حذف کامل سوگیری اطمینان حاصل کنیم، اما می‌توانیم تلاش کنیم تا اطمینان حاصل کنیم که هر مرحله از توسعه یک مدل با روشی که انصاف را در اولویت قرار می‌دهد، مطابقت دارد.

توصیه من برای ارائه این است که ابتدا مجموعه داده‌های متنوعی را برای مدل‌های آموزشی انتخاب کنید، یعنی آن‌هایی که بیشتر نماینده هستند، و همچنین توسعه فرآیندهای استاندارد و مستنداتی که مدل‌ها و نحوه انطباق آن‌ها با روش‌شناسی را توضیح می‌دهد، به طوری که عملکرد و تصمیم‌گیری‌ها می‌تواند قابل انجام باشد. درک کرد.

چالش واقعی در اینجا، و یک اصل بنیادین پشت هوش مصنوعی قابل توضیح، این است که عملکرد درونی مدل‌ها نباید فقط توسط دانشمندان داده درک شود. در بیشتر زمینه ها، چندین طرف باید بدانند (و باید بدانند) چگونه یک مدل یادگیری ماشینی کار می کند.

گوگل با انتشار مقاله خود در مورد «کارت‌های مدل» در سال 2019، رویکرد ایجاد اسناد استاندارد شده را پیشگام کرد که دقیقاً این کار را انجام می‌دهد. در این مقاله، نویسندگان ثبت جزئیات مدل، استفاده مورد نظر، معیارها، داده‌های ارزیابی، ملاحظات اخلاقی، توصیه‌ها و موارد دیگر را پیشنهاد می‌کنند.

با استفاده از این به عنوان پایه، و در نظر گرفتن الزامات منحصر به فرد برای صنایع، مانند صنایعی که به شدت تحت نظارت هستند.مولفه ها می توانند نشان دهند که چگونه سوگیری به طور سیستماتیک در هر مرحله از ساخت یک مدل محاسبه شده است. اگر به استفاده از یک ارائه دهنده وام برگردیم، روشن می شود که چرا هوش مصنوعی قابل توضیح اینقدر مهم است.

اگر شخصی احساس کند که به طور ناعادلانه از دریافت وام رد شده است، مهم است که ارائه دهنده وام بتواند توضیح دهد که چرا این تصمیم گرفته شده است. در موارد شدید، عدم توجیه تصمیم می تواند منجر به اقدام قانونی بر اساس تبعیض شود.

در این مثال، مهم است که مدل، روش مورد استفاده برای ساخت آن و خروجی آن توسط متخصصان حقوقی و همچنین افراد تحت تأثیر قابل درک باشد. خارج از این مورد استثنایی، اطلاعات مربوط به مدل‌ها ممکن است به تعدادی از واحدهای تجاری و شخصیت‌های غیرفنی مربوط باشد، بنابراین اسناد متفاوتی باید برای هر کدام تنظیم شود.

آینده هوش مصنوعی قابل توضیح

در نهایت، اگر مستنداتی که مدل‌ها را توضیح می‌دهد وجود نداشته باشد، هر مدل یک راه‌حل جعبه سیاه برای کسی خواهد بود، که وضعیتی غیرقابل دفاع است. اشتباه نیست که ChatGPT به زمانی رسیده است که در آن عموم مردم به درک معقولی از حفاظت، مدیریت و حقوق داده ها رسیده اند. این دو ممکن است مستقیماً به هم مرتبط نباشند، اما می‌توانند به‌عنوان نیروهای متقابل مکمل در تکامل فناوری دیده شوند.

به لطف مقررات داده‌ها، مانند قانون GDPR اتحادیه اروپا و قانون حفظ حریم خصوصی مصرف‌کننده کالیفرنیا، و فرم‌های مجوزهای کوکی پایان‌ناپذیر در وب‌سایت‌ها، همه ما از داده‌هایی که به اشتراک می‌گذاریم و نحوه استفاده از آن‌ها آگاه‌تر هستیم – و با آگاهی بیشتر، انتظارات بیشتری نیز به وجود می‌آید .

ChatGPT تصور جمعی از آنچه ممکن است زمانی که یک مدل بر روی حجم وسیعی از داده آموزش داده می شود را به وجود آورده است، اما نمونه های بسیار واضحی از نحوه ارائه نتایج مشکل ساز مدل وجود دارد. ChatGPT یک جعبه سیاه است، بنابراین نتایجی که ارائه می دهد را نمی توان به طور کامل توضیح داد یا به آنها اعتماد کرد. همچنین خطاهای واقعی را مرتکب می شود، که برخی از آنها جدی هستند، زیرا از الگوهای رایج مورد استفاده در مکالمه تعمیم می یابد، مانند زمانی که افراد با اطمینان نظر را به عنوان واقعیت بیان می کنند.

همانطور که هوش مصنوعی به تکامل خود ادامه می دهد، درک عمومی از قدرت و محدودیت های آن نیز بیشتر خواهد شد. مدل‌های زبان بزرگ ذاتا جعبه‌های سیاه هستند، که به این معنی است که آینده شرکت‌هایی مانند ChatGPT و قابلیت استفاده آن، بر ایجاد روش‌های قوی برای استنباط اینکه چگونه و چرا این مدل‌ها به خروجی‌های خود رسیده‌اند، که مرحله بعدی در هوش مصنوعی قابل توضیح است، متکی است.

آیا این نوشته برایتان مفید بود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *