نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

5 آذر 1403 4:23 ق.ظ

استفاده از هوش مصنوعی برای خودکارسازی انسان

Devin Coldewey -14 ژوئن 2023-اوروبوروس-اعتبار تصویر: API/Gamma-Raphio/Getty/Getty Images

این خبر را تحت عنوان اجتناب ناپذیر اما خنده دار ثبت کنید Mechanical Turk . سرویسی است که از همان روزهای ابتدایی خود به نظر می رسید که شیطنت ها را دعوت می کند و در واقع محققان نشان می دهند که تقریباً نیمی از دارندگان آن به نظر می رسد از هوش مصنوعی برای انجام کارهایی استفاده می کنند که به طور خاص توسط انسان ها در نظر گرفته شده بود زیرا هوش مصنوعی نمی توانست انجام دهد.

Mechanical Turk آمازون به کاربران این امکان را می دهد که وظایف ساده را به تعدادی از وظایف فرعی کوچک تقسیم کنند که انجام آنها فقط چند ثانیه طول می کشد . کارگران بصورت مجزا و اختصاصی هزاران کار را انجام می دهند و در نتیجه دستمزد متوسط اما قابل اعتمادی دریافت می کنند. همانطور که جف بزوس در آن زمان به طور به یاد ماندنی گفت، این “هوش مصنوعی  ، مصنوعی” بود.

اینها معمولاً کارهایی بودند که خودکار کردن آنها دشوار بود – مانند CAPTCHA، یا تشخیص احساس یک جمله، یا ساده “کشیدن یک دایره دور گربه در این تصویر”، کارهایی که مردم می توانستند به سرعت و با اطمینان انجام دهند. افرادی که داده‌های نسبتاً پیچیده را برچسب‌گذاری می‌کردند و محققانی که هدفشان ارزیابی‌ها یا تصمیم‌گیری‌های انسانی در مقیاس بود، به طور آزادانه استفاده می‌شد.

نام آن از «اتومات» معروف شطرنج‌بازی گرفته شده است که در واقع از یک انسان پنهان شده در پایگاه خود برای ساختن بازی‌های خود استفاده می‌کرد –  ادگار الن پو یک برداشت بزرگ معاصر از آن نوشت. گاهی اوقات اتوماسیون دشوار یا غیرممکن است، اما در چنین مواردی می توانید نوعی ماشین را با انسانیت بسازید. باید مراقب آن بود، اما در طول سال ها مفید بودن آن ثابت شده است.

اما مطالعه ای از محققان EPFL در سوئیس نشان می دهد که کارگران  (ترک مکانیک ) کار خود را با استفاده از مدل های زبان بزرگ مانند ChatGPT خودکار می کنند: ماری که دم خود را گاز می گیرد یا شاید به طور کامل خود را می بلعد.

این سوال زمانی مطرح شد که آنها استفاده از سرویسی مانند MTurk را به عنوان “انسان در حلقه” برای بهبود یا بررسی واقعیت پاسخ‌های LLM که اساساً غیرقابل اعتماد هستند، در نظر گرفتند:

     وسوسه انگیز است که برای تأیید خروجی های LLM یا ایجاد داده های استاندارد طلایی انسانی برای مقایسه، به جمع سپاری تکیه کنیم. اما اگر خود کارگران از LLM استفاده کنند، به عنوان مثال، برای افزایش بهره وری و در نتیجه درآمدشان، در پلتفرم های جمع سپاری چه می شود؟

برای درک کلی از مشکل، آنها یک کار “خلاصه انتزاعی” را تعیین کردند که باید توسط بوقلمون ها تکمیل شود. با تجزیه و تحلیل های مختلفی که در مقاله توضیح داده شده است (هنوز منتشر نشده یا مورد بررسی همتایان قرار نگرفته است) آنها “تخمین می زنند که 33 تا 46٪ از کارگران  هنگام تکمیل کار از LLM استفاده می کنند.”

برای برخی، این تعجبی نخواهد داشت. از زمانی که پلتفرم شروع به کار کرد، احتمالاً سطحی از اتوماسیون در ترکینگ وجود داشته است. سرعت و قابلیت اطمینان انگیزه ایجاد می کند، و اگر بتوانید اسکریپتی بنویسید که درخواست های خاصی را با دقت 90 درصد انجام دهد، می توانید مقدار زیادی پول به دست آورید. با نظارت اندک بر فرآیندهای مشارکت کنندگان، اجتناب ناپذیر بود که برخی از این وظایف عملاً توسط انسان ها انجام نشوند، همانطور که تبلیغ می شود. یکپارچگی هرگز ژست قوی آمازون نبوده است، بنابراین اعتماد به آنها منطقی نبود.

اما دیدن آن به این شکل، و برای کاری که تا همین اواخر به نظر می‌رسید تنها یک انسان می‌تواند انجام دهد – خلاصه کردن چکیده مقاله – نه تنها ارزش مکانیکال ترک را زیر سوال می‌برد، بلکه جبهه دیگری را در بحران قریب‌الوقوع آشکار می‌کند. آموزش هوش مصنوعی در مورد داده‌های تولید شده توسط هوش مصنوعی در یکی دیگر از مخمصه‌های اوروبوروس.

محققان (ونیامین وسلوفسکی، مانوئل هورتا ریبیرو و رابرت وست) هشدار می‌دهند که این کار، با ظهور LLM‌های مدرن، به‌ویژه برای اتوماسیون مخفی مناسب است، و بنابراین احتمالاً قربانی این روش‌ها می‌شود. اما وضعیت هنر به طور پیوسته در حال پیشرفت است:

     LLM ها روز به روز محبوب تر می شوند و مدل های چند وجهی که نه تنها متن، بلکه از ورودی و خروجی تصویر و تصویر را نیز پشتیبانی می کنند، در حال افزایش هستند. با این کار، نتایج ما باید «قناری در معدن زغال‌سنگ» در نظر گرفته شود که باید به پلتفرم‌ها، محققان و کارگران جمعی یادآوری کند که راه‌های جدیدی برای اطمینان از اینکه داده‌های انسانی انسان باقی می‌مانند بیابند.

خطر هوش مصنوعی برای سال‌ها تئوریزه شده است و تقریباً بلافاصله پس از استقرار گسترده LLMها به واقعیت تبدیل شد: ChatGPT حیوان خانگی بینگ اطلاعات نادرست خود را به عنوان پشتیبانی از اطلاعات نادرست جدید در مورد یک توطئه COVID نقل کرد.

اگر نمی توانید 100% مطمئن باشید که کاری توسط یک انسان انجام شده است، احتمالاً بهتر است فرض کنید که اینطور نبوده است. این یک اصل ناامیدکننده است که باید به آن پایبند بود، اما ما اینجا هستیم.

https://techcrunch.com

آیا این نوشته برایتان مفید بود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *