Devin Coldewey -14 ژوئن 2023-اوروبوروس-اعتبار تصویر: API/Gamma-Raphio/Getty/Getty Images
این خبر را تحت عنوان اجتناب ناپذیر اما خنده دار ثبت کنید Mechanical Turk . سرویسی است که از همان روزهای ابتدایی خود به نظر می رسید که شیطنت ها را دعوت می کند و در واقع محققان نشان می دهند که تقریباً نیمی از دارندگان آن به نظر می رسد از هوش مصنوعی برای انجام کارهایی استفاده می کنند که به طور خاص توسط انسان ها در نظر گرفته شده بود زیرا هوش مصنوعی نمی توانست انجام دهد.
Mechanical Turk آمازون به کاربران این امکان را می دهد که وظایف ساده را به تعدادی از وظایف فرعی کوچک تقسیم کنند که انجام آنها فقط چند ثانیه طول می کشد . کارگران بصورت مجزا و اختصاصی هزاران کار را انجام می دهند و در نتیجه دستمزد متوسط اما قابل اعتمادی دریافت می کنند. همانطور که جف بزوس در آن زمان به طور به یاد ماندنی گفت، این “هوش مصنوعی ، مصنوعی” بود.
اینها معمولاً کارهایی بودند که خودکار کردن آنها دشوار بود – مانند CAPTCHA، یا تشخیص احساس یک جمله، یا ساده “کشیدن یک دایره دور گربه در این تصویر”، کارهایی که مردم می توانستند به سرعت و با اطمینان انجام دهند. افرادی که دادههای نسبتاً پیچیده را برچسبگذاری میکردند و محققانی که هدفشان ارزیابیها یا تصمیمگیریهای انسانی در مقیاس بود، به طور آزادانه استفاده میشد.
نام آن از «اتومات» معروف شطرنجبازی گرفته شده است که در واقع از یک انسان پنهان شده در پایگاه خود برای ساختن بازیهای خود استفاده میکرد – ادگار الن پو یک برداشت بزرگ معاصر از آن نوشت. گاهی اوقات اتوماسیون دشوار یا غیرممکن است، اما در چنین مواردی می توانید نوعی ماشین را با انسانیت بسازید. باید مراقب آن بود، اما در طول سال ها مفید بودن آن ثابت شده است.
اما مطالعه ای از محققان EPFL در سوئیس نشان می دهد که کارگران (ترک مکانیک ) کار خود را با استفاده از مدل های زبان بزرگ مانند ChatGPT خودکار می کنند: ماری که دم خود را گاز می گیرد یا شاید به طور کامل خود را می بلعد.
این سوال زمانی مطرح شد که آنها استفاده از سرویسی مانند MTurk را به عنوان “انسان در حلقه” برای بهبود یا بررسی واقعیت پاسخهای LLM که اساساً غیرقابل اعتماد هستند، در نظر گرفتند:
وسوسه انگیز است که برای تأیید خروجی های LLM یا ایجاد داده های استاندارد طلایی انسانی برای مقایسه، به جمع سپاری تکیه کنیم. اما اگر خود کارگران از LLM استفاده کنند، به عنوان مثال، برای افزایش بهره وری و در نتیجه درآمدشان، در پلتفرم های جمع سپاری چه می شود؟
برای درک کلی از مشکل، آنها یک کار “خلاصه انتزاعی” را تعیین کردند که باید توسط بوقلمون ها تکمیل شود. با تجزیه و تحلیل های مختلفی که در مقاله توضیح داده شده است (هنوز منتشر نشده یا مورد بررسی همتایان قرار نگرفته است) آنها “تخمین می زنند که 33 تا 46٪ از کارگران هنگام تکمیل کار از LLM استفاده می کنند.”
برای برخی، این تعجبی نخواهد داشت. از زمانی که پلتفرم شروع به کار کرد، احتمالاً سطحی از اتوماسیون در ترکینگ وجود داشته است. سرعت و قابلیت اطمینان انگیزه ایجاد می کند، و اگر بتوانید اسکریپتی بنویسید که درخواست های خاصی را با دقت 90 درصد انجام دهد، می توانید مقدار زیادی پول به دست آورید. با نظارت اندک بر فرآیندهای مشارکت کنندگان، اجتناب ناپذیر بود که برخی از این وظایف عملاً توسط انسان ها انجام نشوند، همانطور که تبلیغ می شود. یکپارچگی هرگز ژست قوی آمازون نبوده است، بنابراین اعتماد به آنها منطقی نبود.
اما دیدن آن به این شکل، و برای کاری که تا همین اواخر به نظر میرسید تنها یک انسان میتواند انجام دهد – خلاصه کردن چکیده مقاله – نه تنها ارزش مکانیکال ترک را زیر سوال میبرد، بلکه جبهه دیگری را در بحران قریبالوقوع آشکار میکند. آموزش هوش مصنوعی در مورد دادههای تولید شده توسط هوش مصنوعی در یکی دیگر از مخمصههای اوروبوروس.
محققان (ونیامین وسلوفسکی، مانوئل هورتا ریبیرو و رابرت وست) هشدار میدهند که این کار، با ظهور LLMهای مدرن، بهویژه برای اتوماسیون مخفی مناسب است، و بنابراین احتمالاً قربانی این روشها میشود. اما وضعیت هنر به طور پیوسته در حال پیشرفت است:
LLM ها روز به روز محبوب تر می شوند و مدل های چند وجهی که نه تنها متن، بلکه از ورودی و خروجی تصویر و تصویر را نیز پشتیبانی می کنند، در حال افزایش هستند. با این کار، نتایج ما باید «قناری در معدن زغالسنگ» در نظر گرفته شود که باید به پلتفرمها، محققان و کارگران جمعی یادآوری کند که راههای جدیدی برای اطمینان از اینکه دادههای انسانی انسان باقی میمانند بیابند.
خطر هوش مصنوعی برای سالها تئوریزه شده است و تقریباً بلافاصله پس از استقرار گسترده LLMها به واقعیت تبدیل شد: ChatGPT حیوان خانگی بینگ اطلاعات نادرست خود را به عنوان پشتیبانی از اطلاعات نادرست جدید در مورد یک توطئه COVID نقل کرد.
اگر نمی توانید 100% مطمئن باشید که کاری توسط یک انسان انجام شده است، احتمالاً بهتر است فرض کنید که اینطور نبوده است. این یک اصل ناامیدکننده است که باید به آن پایبند بود، اما ما اینجا هستیم.