نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

2 آذر 1403 7:09 ق.ظ

آیا هوش مصنوعی می تواند مرتکب افترا شود؟

Devin Coldewey  -6 آوریل 2023-اعتبار تصویر: Getty Images

داغ‌ترین اسباب‌بازی جدید دنیای فناوری ممکن است خود را در آب داغ قانونی بیابد، زیرا تمایل هوش مصنوعی به اختراع مقالات و رویدادهای خبری در برابر قوانین  نوعی از افترا ا دروغ است . آیا یک مدل هوش مصنوعی مانند ChatGPT حتی می تواند تهمت بزند؟ مانند بسیاری از موارد پیرامون این فناوری، ناشناخته و بی سابقه است – اما چالش های قانونی آینده ممکن است آن را تغییر دهد.

افترا به طور کلی به عنوان انتشار یا گفتن اظهارات مخرب و غیر واقعی در مورد کسی تعریف می شود. این یک قلمرو حقوقی پیچیده و ظریف است که همچنین به طور گسترده در حوزه های قضایی متفاوت است: یک پرونده افترا در ایالات متحده با پرونده ای در بریتانیا یا استرالیا – محل برگزاری درام امروزی – بسیار متفاوت است.

هوش مصنوعی مولد قبلاً سؤالات حقوقی بی‌پاسخ متعددی را ایجاد کرده است، برای مثال اینکه آیا استفاده آن از مطالب دارای حق چاپ به منزله استفاده منصفانه یا نقض است. اما تا یک سال پیش، نه مدل‌های هوش مصنوعی تولیدکننده تصویر و متن به اندازه کافی خوب نبودند که چیزی را با واقعیت اشتباه بگیرید، بنابراین سؤالات مربوط به بازنمایی‌های نادرست کاملاً آکادمیک بود.

در حال حاضر نه چندان زیاد: مدل زبان بزرگ پشت ChatGPT و Bing Chat یک هنرمند است که در مقیاس عظیمی کار می کند و ادغام آن با محصولات اصلی مانند موتورهای جستجو (و تقریباً همه چیزهای دیگر) احتمالاً سیستم را از آزمایش بد به پلت فرم انتشار انبوه ارتقا می دهد.

پس چه اتفاقی می‌افتد وقتی این ابزار/پلتفرم می‌نویسد که یک مقام دولتی در یک پرونده تخلف، یا یک استاد دانشگاه متهم به آزار و اذیت جنسی شده است؟

یک سال پیش، بدون ادغام گسترده و زبان نسبتاً قانع کننده، کمتر کسی می گفت که چنین اظهارات نادرستی را می توان جدی گرفت. اما امروزه این مدل‌ها با اطمینان و قانع‌کننده‌ای به سؤالات در پلت‌فرم‌های در دسترس پاسخ می‌دهند، حتی زمانی که این پاسخ‌ها توهم‌آمیز هستند یا به دروغ به مقالاتی که وجود ندارند نسبت داده می‌شوند. آنها گزاره های نادرست را به مقالات واقعی، یا گزاره های درست را به موارد اختراع شده نسبت می دهند، یا همه آن را می سازند.

با توجه به ماهیت نحوه کار این مدل ها، آنها نمی دانند یا به درستی چیزی اهمیت نمی دهند، فقط به نظر می رسد که درست است. مطمئناً وقتی از آن برای انجام تکالیف خود استفاده می کنید، مشکلی ایجاد می کند، اما وقتی شما را به جرمی متهم می کند که مرتکب نشده اید، در این مرحله ممکن است افترا باشد.

این ادعایی است که توسط برایان هود، شهردار هپبورن شایر در استرالیا، زمانی که به او اطلاع داده شد که ChatGPT او را در یک رسوایی رشوه خواری از 20 سال پیش محکوم کرده است. رسوایی واقعی بود – و هود درگیر بود. اما او کسی بود که در این باره به مقامات مراجعه کرد و همانطور که رویترز گزارش می دهد که وکلای او می گویند هرگز متهم به جرم نشد.

اکنون، واضح است که این بیانیه نادرست است و بدون شک برای شهرت هود مضر است. اما چه کسی این بیانیه را اعلام کرد؟ آیا OpenAI است که نرم افزار را توسعه داده است؟ آیا این مایکروسافت است که مجوز آن را صادر کرده و تحت بینگ مستقر کرده است؟ آیا این خود نرم افزار به عنوان یک سیستم خودکار عمل می کند؟ اگر چنین است، چه کسی مسئول ترغیب آن سیستم به ایجاد بیانیه است؟ آیا بیان چنین اظهاراتی در چنین فضایی به منزله «انتشار» آن است یا بیشتر شبیه گفتگوی دو نفر است؟ در این صورت آیا تهمت محسوب می شود؟ آیا OpenAI یا ChatGPT می دانستند که این اطلاعات نادرست است، و چگونه سهل انگاری را در چنین موردی تعریف کنیم؟ آیا یک مدل هوش مصنوعی می تواند سوء نیت نشان دهد؟ آیا به قانون، پرونده، قاضی بستگی دارد؟

اینها همه سؤالاتی باز هستند زیرا فناوری مورد نظر آنها یک سال پیش وجود نداشت، چه رسد به زمانی که قوانین و سوابق قانونی که افترا را تعریف می کردند، ایجاد شد. اگرچه ممکن است در یک سطح احمقانه به نظر برسد که از یک چت بات به دلیل گفتن چیزی نادرست شکایت کنید، چت بات ها آن چیزی نیستند که قبلا بودند. با توجه به اینکه برخی از بزرگترین شرکت های جهان آنها را به عنوان نسل بعدی بازیابی اطلاعات و جایگزینی موتورهای جستجو پیشنهاد می کنند، اینها دیگر اسباب بازی نیستند بلکه ابزارهایی هستند که به طور منظم توسط میلیون ها نفر استفاده می شود.

هود نامه‌ای به OpenAI ارسال کرده و از آن می‌خواهد در این مورد کاری انجام دهد – واقعاً مشخص نیست که چه کاری می‌تواند انجام دهد، یا اینکه آیا مجبور است یا هر چیز دیگری بر اساس قوانین استرالیا یا ایالات متحده انجام دهد. اما در مورد اخیر دیگری، یک استاد حقوق خود را متهم به آزار جنسی توسط یک ربات چت با استناد به مقاله ساختگی واشنگتن پست یافت. و این احتمال وجود دارد که چنین اظهارات نادرست و بالقوه آسیب زا رایج تر از آن چیزی باشد که ما فکر می کنیم – آنها در حال حاضر جدی شده اند و به اندازه ای هستند که گزارش به افراد درگیر را تضمین کنند.

این تنها آغاز این درام حقوقی است، و حتی وکلا و کارشناسان هوش مصنوعی نیز نمی‌دانند که چگونه آن را اجرا خواهد کرد. اما اگر شرکت‌هایی مانند OpenAI و مایکروسافت (به غیر از هر شرکت بزرگ فناوری دیگر و چند صد استارت‌آپ) انتظار دارند که سیستم‌هایشان به‌عنوان منابع اطلاعاتی جدی گرفته شود، نمی‌توانند از عواقب این ادعاها اجتناب کنند. آنها ممکن است دستور العمل ها و برنامه ریزی سفر را به عنوان نقطه شروع پیشنهاد کنند، اما مردم می دانند که شرکت ها می گویند این پلت فرم ها منبع حقیقت هستند.

آیا این اظهارات نگران کننده به دعوای واقعی تبدیل می شود؟ آیا این دعاوی قبل از تغییر مجدد صنعت حل می شود؟ و آیا همه اینها با قانون گذاری در بین حوزه های قضایی که پرونده ها در آنها پیگیری می شود، مطرح می شود؟ چند ماه (یا سال‌های محتمل‌تر) جالب خواهد بود زیرا کارشناسان فنی و حقوقی تلاش می‌کنند تا به سریع‌ترین هدف در حال حرکت در صنعت دست یابند.

https://techcrunch.com

آیا این نوشته برایتان مفید بود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *