19 نوامبر 2023 -نوشته دیوید نایتز و گای هوبر، گفتگو-اعتبار: CC0 دامنه عمومی
همه جا نشانه هایی از هوش مصنوعی وجود دارد، این هوش مصنوعی پشت همه چیز است، از چت ربات های خدمات مشتری گرفته تا تبلیغات شخصی که هنگام مرور آنلاین دریافت می کنیم. با این حال، ما تا حد زیادی از الگوریتم های پنهانی که کارهای سنگین پشت صحنه را انجام می دهند، بی اطلاع هستیم.
ما در حال حاضر روی یک پروژه تحقیقاتی با تمرکز بر گفتگو با متخصصان در زمینه هوش مصنوعی کار می کنیم. ما از آنها در مورد تفکر و ارزشهایشان و همچنین اینکه چه ملاحظات اخلاقی را مهمتر میدانند – و چرایی سؤال میکنیم. هنجارها و ارزشهای توسعهدهندگان میتوانند در سیستمهای هوش مصنوعی که آنها مهندسی میکنند تعبیه شود. با این حال، آنها – و ما – اغلب از این، همراه با عواقب آن بی خبر هستیم.
درک هرچه بیشتر در مورد توسعه هوش مصنوعی بسیار مهم است زیرا این فناوری در حال حاضر ما را به گونه ای تغییر می دهد که به نظر نمی رسد درک کنیم. به عنوان مثال، تحقیقات منتشر شده در سال 2017 نشان داد که الگوریتمهای رسانههای اجتماعی نتایجی را بر اساس فرضیات در مورد کاربران ایجاد میکنند، اما کاربران نیز با این نتایج، مانند داستانهایی که در فیدهایشان نشان میدهند، سازگار میشوند و منطق الگوریتم را نیز تغییر میدهد.
تعاملات روزانه ما با هوش مصنوعی ما را به طور فزاینده ای به آن وابسته می کند، اما پویایی قدرت در این رابطه به شدت به سیستم های هوش مصنوعی کمک می کند. این یک فناوری است که سازندگان آن حتی عملکرد درونی آن را به طور کامل درک نمی کنند.
اتکای بیش از حد انسان به فناوری می تواند تفکر خلاق و انتقادی را کاهش دهد. هوش مصنوعی قبلاً منجر به جابجایی شغل و بیکاری شده است. و، در حالی که هشدارها مبنی بر اینکه ممکن است منجر به انقراض انسان شود را نباید به صورت واقعی تلقی کرد، ما نیز نمی توانیم آنها را به طور کامل نادیده بگیریم.
نشان داده شده است که الگوریتم ها دارای تمایلات تبعیض آمیز نسبت به نژاد، جنسیت و سایر ویژگی های محافظت شده هستند. ما باید بدانیم که چگونه این مشکلات و سایر مشکلات در توسعه هوش مصنوعی به وجود می آیند.
برخی از مفسران توجه را به آنچه که می گویند عدم توجه به امنیت و حریم خصوصی توسط شرکت های توسعه دهنده هوش مصنوعی است، جلب کرده اند. همچنین عدم شفافیت و پاسخگویی در مورد پروژه های هوش مصنوعی وجود دارد. در حالی که این در دنیای رقابتی فناوری های بزرگ غیرمعمول نیست، ما مطمئناً باید رویکرد منطقی تری را با فناوری ای اتخاذ کنیم که بتواند چنین قدرتی را بر زندگی ما اعمال کند.
بحران هویت؟
آنچه در گفتمان در مورد هوش مصنوعی نادیده گرفته شده است این است که چگونه حس معنا، هویت و واقعیت ما به طور فزاینده ای بر تعامل با خدماتی که آن را تسهیل می کند متکی می شود. هوش مصنوعی ممکن است هوشیاری نداشته باشد، اما قدرت را به گونهای اعمال میکند که بر احساس ما از اینکه چه کسی هستیم تأثیر میگذارد. این به این دلیل است که ما آزادانه با فعالیتهایی که با حضور آن امکانپذیر میشود شناسایی میکنیم و در آن شرکت میکنیم.
از این نظر، هوش مصنوعی یک توطئه بزرگ نیست که برای کنترل جهان و همه ساکنان آن طراحی شده است، بلکه بیشتر شبیه یک نیرو است، نه لزوماً خوب و نه بد. با این حال، در حالی که انقراض در کوتاه مدت بعید است، خطر بسیار بیشتر این است که اتکای ما به فناوری منجر به خدمت موثر انسان ها به فناوری شود. این وضعیتی نیست که هیچ یک از ما بخواهیم، حتی کمتر از آن زمانی که این فناوری هنجارهای انسانی را در بر می گیرد که بسیاری آن را کمتر از ایده آل می دانند.
برای مثالی از آنچه در اینجا در مورد آن صحبت می کنیم، بیایید دستورالعمل های عملکرد و نظارت بر درایورهای تحویل را در نظر بگیریم، که توسط سیستم های خودکار با هوش مصنوعی تسهیل می شود. آنها توسط یک گروه پارلمانی فراحزبی بریتانیا توصیف شدهاند که بر سلامت روانی و جسمی کارگران تأثیر منفی میگذارند زیرا «آنها فشار شدید ناشی از مدیریت خرد مداوم و بیدرنگ و ارزیابی خودکار را تجربه میکنند».
مثال دیگری توسط اریک برینیولفسون، اقتصاددان استنفورد که احتمال چیزی به نام “تله تورینگ” را مطرح کرده است، برجسته شده است. این به نگرانی هایی اشاره دارد که اتوماسیون فعالیت های انسانی می تواند ثروت و قدرت را در دستان کمتر و کمتری بگذارد. برینیولفسون در کتاب خود به نام تله تورینگ: وعده و خطر هوش مصنوعی انسانمانند مینویسد: «با این تمرکز (قدرت) خطر گرفتار شدن در تعادلی وجود دارد که در آن افراد بدون قدرت راهی برای بهبود نتایج خود ندارند. “
اخیرا، جرمی هاوارد، محقق هوش مصنوعی، توضیح داد که چگونه ChatGPT را به دختر هفت سالهاش معرفی کرد، پس از پرسیدن چندین سؤال در مورد آن او به این نتیجه رسید که این می تواند به نوع جدیدی از معلم خصوصی تبدیل شود و ریاضیات، علوم، انگلیسی و موضوعات دیگر را به او آموزش دهد.
واضح است که این امر مستلزم جابجایی نقش معلمان است. با این حال، هاوارد همچنین به دخترش هشدار داد که نباید هر آنچه را که می گوید باور کند. این جنبه یک خطر واقعی برای یادگیری است. و حتی اگر ChatGPT دانش دقیقی را منتقل میکرد، آیا دخترش این اطلاعات را به آسانی مانند زمانی که از طریق گفتار «تجسمشده» – به عبارت دیگر، توسط یک انسان منتقل میشد، حفظ میکرد؟
آنچه الگوریتم می بیند
این موارد دنیای واقعی روشی را نشان میدهد که هوش مصنوعی میتواند نگرش ما به جهان و خودمان را تغییر دهد. این امرنشان می دهد که بین کاربران و هوش مصنوعی یک پویایی قدرت وجود دارد که در آن ماشین بر افرادی که با آن تعامل دارند اعمال قدرت می کند.
همانطور که تاینا بوچر، استادیار ارتباطات و فناوری اطلاعات در دانشگاه کپنهاگ، در یک مقاله تحقیقاتی در سال 2016 که با کمک مصرف کنندگان انجام شد، گزارش داد: «فقط مقولهها و طبقهبندیهایی که الگوریتمها بر آنها تکیه میکنند مطابق با احساس ما از خود نیست. اما تا چه حد میتوانیم خود را از طریق “چشم” الگوریتم ببینیم.”
هوش مصنوعی اغلب به سادگی از طریق صفحه نمایش رایانه ما یا سایر رسانه های انتزاعی تر قابل دسترسی است، جز در محدودترین معنای آن تجسم نمی یابد. به این ترتیب، تأثیر آن اغلب به سطح شناختی هویت، عاری از «روح» یا حساسیت عاطفی یا چیزی که گاهی به عنوان انرژی عاطفی شناخته میشود، محدود میشود. این توصیفی است از روشهای طبیعی که انسانها با یکدیگر تعامل میکنند و واکنشها را از یکدیگر تحریک میکنند.
اگر از ChatGPT بپرسید که آیا هوش مصنوعی قابل تجسم است یا خیر، پاسخ فقط مربوط به تجسم هوش ماشینی در شکل فیزیکی، مانند یک ربات است. اما تجسم در مورد احساسات، عواطف و همدلی نیز هست. نمی توان آن را به دنباله های خطی دستورالعمل کاهش داد.
این بدان معنا نیست که هوش مصنوعی بر احساسات و عواطف ما تأثیر نمی گذارد. اما ماشینها هرگز نمیتوانند زندگی عاطفی غنی را که در تعامل بین دو یا چند انسان وجود دارد، تکرار کنند. از آنجایی که به نظر می رسد زندگی ما بیش از پیش با هوش مصنوعی در هم تنیده شده است، شاید باید سرعت این رابطه را کاهش دهیم، به خصوص که واضح است که این به دور از مشارکت برابر است.