3 آگوست 2023-© shutterstock/Gorodenkoff
آدام لیبرمن، رئیس هوش مصنوعی و یادگیری ماشین در Finastra، توضیح میدهد که چگونه هوش مصنوعی قابل توضیح میتواند به حذف سوگیری کمک کند که در عصر ChatGPT مهم است.
از ابتدای پیدایش هوش مصنوعی، این فناوری منبع هیجان، نگرانی متناوب و البته پیشرفت در صنایع بوده است.
از Skynet گرفته تا قابلیتهای تشخیصی انقلابی در مراقبتهای بهداشتی، هوش مصنوعی این قدرت را دارد که هم تخیل را جذب کند و هم نوآوری را هدایت کند.
برای عموم مردم، بحثهای پیرامون هوش مصنوعی معمولاً بر سناریوهای عجیب و غریب روز قیامت، نگرانیها در مورد تصاحب رباتها از مشاغل ما، یا هیجان در مورد اینکه چگونه اتوماسیون ممکن است پارادایم کار و زندگی متعادلتری را ایجاد کند، متمرکز است. برای بسیاری، کاربرد عملی و درک هوش مصنوعی تا حد زیادی از دید پنهان مانده است، که منجر به درک نادرست خلاء شده است.
قانعکنندهترین موارد استفاده از هوش مصنوعی مدتها در اختیار کسبوکارها، دولتها و غولهای فناوری بوده است، اما همه این موارد با ورود OpenAI ChatGPT تغییر کرد. این اولین نمونه از یک مدل زبان بزرگ است و قابلیتهای تولیدی آن به طور گسترده برای مصرف انبوه در دسترس است.
این یک زمین بازی هوش مصنوعی ایجاد کرده است که بلافاصله و به درجات مختلف در بسیاری از زمینه ها مفید است.با این حال، بارزترین مسئله و موضوعی که از آغاز هوش مصنوعی وجود داشته است، سوگیری است.
در زمانهای اخیر، دانشمندان دادهها به دنبال راههایی برای حذف سوگیری از مدلها هستند، با فشار خاصی در صنایعی که نتایج مدلها ممکن است بر مشتریان و کاربران نهایی تأثیر منفی بگذارد.
به عنوان مثال، وقتی صحبت از خدمات مالی می شود، الگوریتم های تصمیم گیری سال هاست که برای تسریع تصمیم گیری و بهبود خدمات استفاده می شود. اما در زمینه وامها، تصمیمهای «بد» یا «اشتباه» که محصول یک مدل مغرضانه است، میتواند پیامدهای فاجعهباری برای افراد داشته باشد.
حذف سوگیری نیازمند یک استراتژی چند جانبه است، از حصول اطمینان از اینکه تیمهای علم داده و یادگیری ماشین نماینده جوامعی هستند که برای آنها راهحل میسازند – یا حداقل اصول ایجاد عدالت در مدلها را درک میکنند – تا اطمینان از اینکه مدلها قابل توضیح هستند.
انگیزه اصلی پشت هوش مصنوعی قابل توضیح به عنوان بهترین روش، حذف مدلهای یادگیری ماشینی «جعبه سیاه» است. جعبههای سیاه اغلب ممکن است عملکرد بالایی داشته باشند، اما اگر نتایج آنها قابل درک نباشد، دفاع ملموس کمی در برابر اتهامات عدم دقت یا تبعیض وجود دارد.
در صنایعی که مدلهای تصمیمگیری میتوانند پیامدهای عمیقی داشته باشند، فشار برای افزایش مسئولیتپذیری هم از سوی مصرفکنندگان و هم از سوی تنظیمکنندهها در حال افزایش است، به همین دلیل است که به نظر من، کسبوکارها باید به دنبال پیشروی از منحنی باشند.
نکاتی برای توضیح هوش مصنوعی و حذف سوگیری
اجزای کلیدی یک مدل که نیاز به توضیح دارند هنگام در نظر گرفتن سوگیری اغلب نادیده گرفته می شوند. دانشمندان داده و مهندسان یادگیری ماشین یک خط لوله استاندارد برای کار در هنگام ساخت یک مدل دارند. البته داده ها در قلب همه چیز هستند، بنابراین ما با کاوش مجموعه داده های خود و شناسایی روابط بین آنها شروع می کنیم.
سپس به تجزیه و تحلیل داده های اکتشافی می پردازیم که به ما امکان می دهد داده ها را به یک فرم قابل استفاده تبدیل کنیم. سپس نوبت به بحث، پاکسازی و پیش پردازش داده ها قبل از شروع تولید ویژگی می رسد تا توضیحات مفیدتری از داده ها برای حل مشکل موجود ایجاد کنیم.
سپس با مدلهای مختلف آزمایش میکنیم، پارامترها و فراپارامترها را تنظیم میکنیم، مدلها را اعتبارسنجی میکنیم و چرخه را تا زمانی که راهحلی با کارایی بالا داشته باشیم تکرار میکنیم. مشکل اینجاست که بدون تلاش متعهدانه برای اطمینان از انصاف در هر مرحله، نتایج حاصل ممکن است مغرضانه باشد.
البته، ما هرگز نمیتوانیم از حذف کامل سوگیری اطمینان حاصل کنیم، اما میتوانیم تلاش کنیم تا اطمینان حاصل کنیم که هر مرحله از توسعه یک مدل با روشی که انصاف را در اولویت قرار میدهد، مطابقت دارد.
توصیه من برای ارائه این است که ابتدا مجموعه دادههای متنوعی را برای مدلهای آموزشی انتخاب کنید، یعنی آنهایی که بیشتر نماینده هستند، و همچنین توسعه فرآیندهای استاندارد و مستنداتی که مدلها و نحوه انطباق آنها با روششناسی را توضیح میدهد، به طوری که عملکرد و تصمیمگیریها میتواند قابل انجام باشد. درک کرد.
چالش واقعی در اینجا، و یک اصل بنیادین پشت هوش مصنوعی قابل توضیح، این است که عملکرد درونی مدلها نباید فقط توسط دانشمندان داده درک شود. در بیشتر زمینه ها، چندین طرف باید بدانند (و باید بدانند) چگونه یک مدل یادگیری ماشینی کار می کند.
گوگل با انتشار مقاله خود در مورد «کارتهای مدل» در سال 2019، رویکرد ایجاد اسناد استاندارد شده را پیشگام کرد که دقیقاً این کار را انجام میدهد. در این مقاله، نویسندگان ثبت جزئیات مدل، استفاده مورد نظر، معیارها، دادههای ارزیابی، ملاحظات اخلاقی، توصیهها و موارد دیگر را پیشنهاد میکنند.
با استفاده از این به عنوان پایه، و در نظر گرفتن الزامات منحصر به فرد برای صنایع، مانند صنایعی که به شدت تحت نظارت هستند.مولفه ها می توانند نشان دهند که چگونه سوگیری به طور سیستماتیک در هر مرحله از ساخت یک مدل محاسبه شده است. اگر به استفاده از یک ارائه دهنده وام برگردیم، روشن می شود که چرا هوش مصنوعی قابل توضیح اینقدر مهم است.
اگر شخصی احساس کند که به طور ناعادلانه از دریافت وام رد شده است، مهم است که ارائه دهنده وام بتواند توضیح دهد که چرا این تصمیم گرفته شده است. در موارد شدید، عدم توجیه تصمیم می تواند منجر به اقدام قانونی بر اساس تبعیض شود.
در این مثال، مهم است که مدل، روش مورد استفاده برای ساخت آن و خروجی آن توسط متخصصان حقوقی و همچنین افراد تحت تأثیر قابل درک باشد. خارج از این مورد استثنایی، اطلاعات مربوط به مدلها ممکن است به تعدادی از واحدهای تجاری و شخصیتهای غیرفنی مربوط باشد، بنابراین اسناد متفاوتی باید برای هر کدام تنظیم شود.
آینده هوش مصنوعی قابل توضیح
در نهایت، اگر مستنداتی که مدلها را توضیح میدهد وجود نداشته باشد، هر مدل یک راهحل جعبه سیاه برای کسی خواهد بود، که وضعیتی غیرقابل دفاع است. اشتباه نیست که ChatGPT به زمانی رسیده است که در آن عموم مردم به درک معقولی از حفاظت، مدیریت و حقوق داده ها رسیده اند. این دو ممکن است مستقیماً به هم مرتبط نباشند، اما میتوانند بهعنوان نیروهای متقابل مکمل در تکامل فناوری دیده شوند.
به لطف مقررات دادهها، مانند قانون GDPR اتحادیه اروپا و قانون حفظ حریم خصوصی مصرفکننده کالیفرنیا، و فرمهای مجوزهای کوکی پایانناپذیر در وبسایتها، همه ما از دادههایی که به اشتراک میگذاریم و نحوه استفاده از آنها آگاهتر هستیم – و با آگاهی بیشتر، انتظارات بیشتری نیز به وجود میآید .
ChatGPT تصور جمعی از آنچه ممکن است زمانی که یک مدل بر روی حجم وسیعی از داده آموزش داده می شود را به وجود آورده است، اما نمونه های بسیار واضحی از نحوه ارائه نتایج مشکل ساز مدل وجود دارد. ChatGPT یک جعبه سیاه است، بنابراین نتایجی که ارائه می دهد را نمی توان به طور کامل توضیح داد یا به آنها اعتماد کرد. همچنین خطاهای واقعی را مرتکب می شود، که برخی از آنها جدی هستند، زیرا از الگوهای رایج مورد استفاده در مکالمه تعمیم می یابد، مانند زمانی که افراد با اطمینان نظر را به عنوان واقعیت بیان می کنند.
همانطور که هوش مصنوعی به تکامل خود ادامه می دهد، درک عمومی از قدرت و محدودیت های آن نیز بیشتر خواهد شد. مدلهای زبان بزرگ ذاتا جعبههای سیاه هستند، که به این معنی است که آینده شرکتهایی مانند ChatGPT و قابلیت استفاده آن، بر ایجاد روشهای قوی برای استنباط اینکه چگونه و چرا این مدلها به خروجیهای خود رسیدهاند، که مرحله بعدی در هوش مصنوعی قابل توضیح است، متکی است.