17 فوریه 2023 -توسط Rae Lynn Mitchell، دانشگاه A&M تگزاس-اعتبار: دامنه عمومی Pixabay/CC0
محققان دانشکده بهداشت عمومی دانشگاه A&M تگزاس در حال توسعه یک مدل جدید برای راهنمایی و اجرای اخلاقی در زمینه به سرعت در حال پیشرفت هوش مصنوعی (AI) هستند. محققان بر این باورند که این مدل که به عنوان Copyleft AI with Trusted Enforcement یا CAITE شناخته میشود، از مضرات بالقوه هوش مصنوعی بدون مانع از پیشرفتهای فناوری محافظت میکند.
Cason Schmit، JD، استادیار دانشکده بهداشت عمومی و مدیر برنامه در قانون و سیاست سلامت، Megan Doerr از Sage Bionetworks و Jennifer Wager، JD، از Penn State مدل جدید خود را در مقالهای اخیر در مجله Science مورد بحث قرار میدهند.
هوش مصنوعی (AI) که تقریباً در تمام جنبه های زندگی روزمره ما متحول شود. با این حال، استفاده نادرست از ابزارهای مبتنی بر هوش مصنوعی می تواند باعث آسیب شود، به ویژه برای جوامعی که قبلاً با بی عدالتی و تبعیض روبرو هستند. این پتانسیل آسیب مستلزم راهنمایی اخلاقی از طریق مقررات و سیاست است. اما پیشرفت سریع هوش مصنوعی و ماهیت اغلب انعطاف ناپذیر مقررات دولتی، ایجاد چنین راهنمایی های اخلاقی را چالش برانگیز کرده است.
اشمیت، دور و واگر مدل CAITE را برای رویارویی با این چالش ها توسعه دادند CAITE . جنبههای مجوز کپیلفت و مدل پتنت-ترول را ترکیب میکند، دو روش مدیریت حقوق مالکیت معنوی که میتوانند در تضاد با یکدیگر در نظر گرفته شوند.
مجوز کپی لفت به اشتراک گذاری مالکیت معنوی را تحت شرایطی مانند انتساب خالق اصلی یا استفاده غیرتجاری اجازه می دهد و آثار مشتق شده باید از همان شرایط مجوز استفاده کنند. مجوزهای Creative Commons نوعی مجوز کپی لفت هستند. با این حال، طرحهای صدور مجوز کپیلفت معمولاً قدرت اجرایی کمی دارند.
طرف دیگر مدل CAITE از رویکرد ترول ثبت اختراع استفاده می کند که از حقوق اجرایی برای اطمینان از انطباق استفاده می کند. ترول ثبت اختراع سازمانی است که دارای حقوق مالکیت معنوی است و از دیگران به عنوان راهی برای درآمدزایی به جای ایجاد یا صدور مجوز فناوری، در دادگاه شکایت می کند.
مدل CAITE بر اساس مجوز استفاده اخلاقی ساخته شده است. این مجوز استفادههای غیراخلاقی هوش مصنوعی را محدود میکند و کاربران را ملزم میکند که از یک کد رفتار پیروی کنند. نکته مهم این است که از یک رویکرد کپیلفت استفاده میکند تا اطمینان حاصل شود که توسعهدهندگانی که مدلها و دادههای مشتق شده را ایجاد میکنند باید از همان شرایط مجوز استفاده کنند که کار والد کار میکند. مجوز، حقوق اجرای مجوز را به یک شخص ثالث تعیین شده به نام میزبان CAITE اختصاص می دهد. به این ترتیب، حقوق اجرایی برای همه این مجوزهای استفاده اخلاقی در یک سازمان واحد جمع می شود و میزبان CAITE را به عنوان یک تنظیم کننده شبه دولتی هوش مصنوعی توانمند می کند.
اشمیت گفت: «این رویکرد بهترینهای دو جهان را ترکیب میکند: مدلی که به سرعت و انعطافپذیری صنعت است، اما با روشهای اجرایی و قدرت یک تنظیمکننده دولتی سنتی.
نویسندگان خاطرنشان میکنند که استفاده از یک حزب غیردولتی که توسط جامعه توسعهدهندگان هوش مصنوعی تعیین شده است، میتواند انعطافپذیری بیشتری در اجرا و اعتماد به نظارت داشته باشد. میزبانهای CAITE میتوانند پیامدهایی را برای اقدامات غیراخلاقی مانند جریمههای مالی یا گزارش موارد نقض قانون حمایت از مصرفکننده تعیین کنند.
در عین حال، رویکرد CAITE به سیاستهای نرمافزاری اجازه میدهد که میتواند گزارشدهی خود را ارتقا دهد و انعطافپذیری را ارائه میدهد که طرحهای اجرایی معمول دولت اغلب فاقد آن هستند. به عنوان مثال، مشوقهایی برای کاربران هوش مصنوعی برای گزارش سوگیریهایی که در مدلهای هوش مصنوعی خود کشف میکنند، میتواند میزبان CAITE را قادر سازد تا به سایر کاربران هوش مصنوعی که به آن مدلهای بالقوه خطرناک هوش مصنوعی متکی هستند هشدار دهد.
اشمیت و همکارانش اشاره می کنند که رویکرد CAITE در عین انعطاف پذیری، نیازمند مشارکت بخش بزرگی از جامعه هوش مصنوعی است. علاوه بر این، اجرای آزمایشی سیاستهای اخلاقی که با استفاده از رویکرد CAITE ساخته شدهاند، به تحقیقات و بودجه بیشتری نیاز دارد. پیادهسازی این مدل همچنین به اعضای جامعه هوش مصنوعی از رشتههای مختلف برای توسعه ویژگیهای آن و غلبه بر چالشهای پیشآمده تکیه میکند.
اگرچه این امر مستلزم خرید قابل توجهی از سوی جامعه و احتمالاً مشوق های دولتی است، اشمیت و همکاران بیان می کنند که صنعت احتمالاً چارچوب انعطاف پذیرتر CAITE را به مقررات سختگیرانه و کندی که دولت ها در نهایت می توانند اعمال کنند ترجیح می دهند.
واگنر گفت: «تلاشها برای ارتقای هوش مصنوعی اخلاقی و قابل اعتماد باید فراتر از آن چیزی باشد که از نظر قانونی بهعنوان مبنای رفتار قابل قبول تعیین شده است». ما میتوانیم و باید برای انجام بهتر از آنچه حداقل قابل قبول است تلاش کنیم.»
پس از پیاده سازی، CAITE در برابر آسیب های احتمالی هوش مصنوعی بدون مانع از پیشرفت های تکنولوژیکی محافظت می کند. محققان می گویند که با ادامه گسترش هوش مصنوعی در بیشتر زندگی روزمره ما، ارزش یک چارچوب اخلاقی پاسخگو بسیار مهم خواهد بود.