نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

3 آذر 1403 11:51 ق.ظ

راهی برای کنترل استفاده اخلاقی از هوش مصنوعی بدون اینکه مانع پیشرفت شود

17 فوریه 2023 -توسط Rae Lynn Mitchell، دانشگاه A&M تگزاس-اعتبار: دامنه عمومی Pixabay/CC0

محققان دانشکده بهداشت عمومی دانشگاه A&M تگزاس در حال توسعه یک مدل جدید برای راهنمایی و اجرای اخلاقی در زمینه به سرعت در حال پیشرفت هوش مصنوعی (AI) هستند. محققان بر این باورند که این مدل که به عنوان Copyleft AI with Trusted Enforcement یا CAITE شناخته می‌شود، از مضرات بالقوه هوش مصنوعی بدون مانع از پیشرفت‌های فناوری محافظت می‌کند.

Cason Schmit، JD، استادیار دانشکده بهداشت عمومی و مدیر برنامه در قانون و سیاست سلامت، Megan Doerr از Sage Bionetworks و Jennifer Wager، JD، از Penn State مدل جدید خود را در مقاله‌ای اخیر در مجله Science مورد بحث قرار می‌دهند.

هوش مصنوعی (AI) که تقریباً در تمام جنبه های زندگی روزمره ما متحول شود. با این حال، استفاده نادرست از ابزارهای مبتنی بر هوش مصنوعی می تواند باعث آسیب شود، به ویژه برای جوامعی که قبلاً با بی عدالتی و تبعیض روبرو هستند. این پتانسیل آسیب مستلزم راهنمایی اخلاقی از طریق مقررات و سیاست است. اما پیشرفت سریع هوش مصنوعی و ماهیت اغلب انعطاف ناپذیر مقررات دولتی، ایجاد چنین راهنمایی های اخلاقی را چالش برانگیز کرده است.

اشمیت، دور و واگر مدل CAITE را برای رویارویی با این چالش ها توسعه دادند CAITE . جنبه‌های مجوز کپی‌لفت و مدل پتنت-ترول را ترکیب می‌کند، دو روش مدیریت حقوق مالکیت معنوی که می‌توانند در تضاد با یکدیگر در نظر گرفته شوند.

مجوز کپی لفت به اشتراک گذاری مالکیت معنوی را تحت شرایطی مانند انتساب خالق اصلی یا استفاده غیرتجاری اجازه می دهد و آثار مشتق شده باید از همان شرایط مجوز استفاده کنند. مجوزهای Creative Commons نوعی مجوز کپی لفت هستند. با این حال، طرح‌های صدور مجوز کپی‌لفت معمولاً قدرت اجرایی کمی دارند.

طرف دیگر مدل CAITE از رویکرد ترول ثبت اختراع استفاده می کند که از حقوق اجرایی برای اطمینان از انطباق استفاده می کند. ترول ثبت اختراع سازمانی است که دارای حقوق مالکیت معنوی است و از دیگران به عنوان راهی برای درآمدزایی به جای ایجاد یا صدور مجوز فناوری، در دادگاه شکایت می کند.

مدل CAITE بر اساس مجوز استفاده اخلاقی ساخته شده است. این مجوز استفاده‌های غیراخلاقی هوش مصنوعی را محدود می‌کند و کاربران را ملزم می‌کند که از یک کد رفتار پیروی کنند. نکته مهم این است که از یک رویکرد کپی‌لفت استفاده می‌کند تا اطمینان حاصل شود که توسعه‌دهندگانی که مدل‌ها و داده‌های مشتق شده را ایجاد می‌کنند باید از همان شرایط مجوز استفاده کنند که کار والد کار می‌کند. مجوز، حقوق اجرای مجوز را به یک شخص ثالث تعیین شده به نام میزبان CAITE اختصاص می دهد. به این ترتیب، حقوق اجرایی برای همه این مجوزهای استفاده اخلاقی در یک سازمان واحد جمع می شود و میزبان CAITE را به عنوان یک تنظیم کننده شبه دولتی هوش مصنوعی توانمند می کند.

اشمیت گفت: «این رویکرد بهترین‌های دو جهان را ترکیب می‌کند: مدلی که به سرعت و انعطاف‌پذیری صنعت است، اما با روشهای اجرایی و قدرت یک تنظیم‌کننده دولتی سنتی.

نویسندگان خاطرنشان می‌کنند که استفاده از یک حزب غیردولتی که توسط جامعه توسعه‌دهندگان هوش مصنوعی تعیین شده است، می‌تواند انعطاف‌پذیری بیشتری در اجرا و اعتماد به نظارت داشته باشد. میزبان‌های CAITE می‌توانند پیامدهایی را برای اقدامات غیراخلاقی مانند جریمه‌های مالی یا گزارش موارد نقض قانون حمایت از مصرف‌کننده تعیین کنند.

در عین حال، رویکرد CAITE به سیاست‌های نرم‌افزاری اجازه می‌دهد که می‌تواند گزارش‌دهی خود را ارتقا دهد و انعطاف‌پذیری را ارائه می‌دهد که طرح‌های اجرایی معمول دولت اغلب فاقد آن هستند. به عنوان مثال، مشوق‌هایی برای کاربران هوش مصنوعی برای گزارش سوگیری‌هایی که در مدل‌های هوش مصنوعی خود کشف می‌کنند، می‌تواند میزبان CAITE را قادر سازد تا به سایر کاربران هوش مصنوعی که به آن مدل‌های بالقوه خطرناک هوش مصنوعی متکی هستند هشدار دهد.

اشمیت و همکارانش اشاره می کنند که رویکرد CAITE در عین انعطاف پذیری، نیازمند مشارکت بخش بزرگی از جامعه هوش مصنوعی است. علاوه بر این، اجرای آزمایشی سیاست‌های اخلاقی که با استفاده از رویکرد CAITE ساخته شده‌اند، به تحقیقات و بودجه بیشتری نیاز دارد. پیاده‌سازی این مدل همچنین به اعضای جامعه هوش مصنوعی از رشته‌های مختلف برای توسعه ویژگی‌های آن و غلبه بر چالش‌های پیش‌آمده تکیه می‌کند.

اگرچه این امر مستلزم خرید قابل توجهی از سوی جامعه و احتمالاً مشوق های دولتی است، اشمیت و همکاران بیان می کنند که صنعت احتمالاً چارچوب انعطاف پذیرتر CAITE را به مقررات سختگیرانه و کندی که دولت ها در نهایت می توانند اعمال کنند ترجیح می دهند.

واگنر گفت: «تلاش‌ها برای ارتقای هوش مصنوعی اخلاقی و قابل اعتماد باید فراتر از آن چیزی باشد که از نظر قانونی به‌عنوان مبنای رفتار قابل قبول تعیین شده است». ما می‌توانیم و باید برای انجام بهتر از آنچه حداقل قابل قبول است تلاش کنیم.»

پس از پیاده سازی، CAITE در برابر آسیب های احتمالی هوش مصنوعی بدون مانع از پیشرفت های تکنولوژیکی محافظت می کند. محققان می گویند که با ادامه گسترش هوش مصنوعی در بیشتر زندگی روزمره ما، ارزش یک چارچوب اخلاقی پاسخگو بسیار مهم خواهد بود.

https://techxplore.com/

آیا این نوشته برایتان مفید بود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *