نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

2 آذر 1403 1:08 ق.ظ

هوش مصنوعی: چگونه قدرت را به ماشین‌ها می‌دهد تا نگاه ما به جهان را تغییر دهند

هوش مصنوعی

19 نوامبر 2023 -نوشته دیوید نایتز و گای هوبر، گفتگو-اعتبار: CC0 دامنه عمومی

همه جا نشانه هایی از هوش مصنوعی وجود دارد، این هوش مصنوعی پشت همه چیز است، از چت ربات های خدمات مشتری گرفته تا تبلیغات شخصی که هنگام مرور آنلاین دریافت می کنیم. با این حال، ما تا حد زیادی از الگوریتم های پنهانی که کارهای سنگین پشت صحنه را انجام می دهند، بی اطلاع هستیم.

ما در حال حاضر روی یک پروژه تحقیقاتی با تمرکز بر گفتگو با متخصصان در زمینه هوش مصنوعی کار می کنیم. ما از آنها در مورد تفکر و ارزش‌هایشان و همچنین اینکه چه ملاحظات اخلاقی را مهم‌تر می‌دانند – و چرایی سؤال می‌کنیم. هنجارها و ارزش‌های توسعه‌دهندگان می‌توانند در سیستم‌های هوش مصنوعی که آنها مهندسی می‌کنند تعبیه شود. با این حال، آنها – و ما – اغلب از این، همراه با عواقب آن بی خبر هستیم.

درک هرچه بیشتر در مورد توسعه هوش مصنوعی بسیار مهم است زیرا این فناوری در حال حاضر ما را به گونه ای تغییر می دهد که به نظر نمی رسد درک کنیم. به عنوان مثال، تحقیقات منتشر شده در سال 2017 نشان داد که الگوریتم‌های رسانه‌های اجتماعی نتایجی را بر اساس فرضیات در مورد کاربران ایجاد می‌کنند، اما کاربران نیز با این نتایج، مانند داستان‌هایی که در فیدهایشان نشان می‌دهند، سازگار می‌شوند و منطق الگوریتم را نیز تغییر می‌دهد.

تعاملات روزانه ما با هوش مصنوعی ما را به طور فزاینده ای به آن وابسته می کند، اما پویایی قدرت در این رابطه به شدت به سیستم های هوش مصنوعی کمک می کند. این یک فناوری است که سازندگان آن حتی عملکرد درونی آن را به طور کامل درک نمی کنند.

اتکای بیش از حد انسان به فناوری می تواند تفکر خلاق و انتقادی را کاهش دهد. هوش مصنوعی قبلاً منجر به جابجایی شغل و بیکاری شده است. و، در حالی که هشدارها مبنی بر اینکه ممکن است منجر به انقراض انسان شود را نباید به صورت واقعی تلقی کرد، ما نیز نمی توانیم آنها را به طور کامل نادیده بگیریم.

نشان داده شده است که الگوریتم ها دارای تمایلات تبعیض آمیز نسبت به نژاد، جنسیت و سایر ویژگی های محافظت شده هستند. ما باید بدانیم که چگونه این مشکلات و سایر مشکلات در توسعه هوش مصنوعی به وجود می آیند.

برخی از مفسران توجه را به آنچه که می گویند عدم توجه به امنیت و حریم خصوصی توسط شرکت های توسعه دهنده هوش مصنوعی است، جلب کرده اند. همچنین عدم شفافیت و پاسخگویی در مورد پروژه های هوش مصنوعی وجود دارد. در حالی که این در دنیای رقابتی فناوری های بزرگ غیرمعمول نیست، ما مطمئناً باید رویکرد منطقی تری را با فناوری ای اتخاذ کنیم که بتواند چنین قدرتی را بر زندگی ما اعمال کند.

بحران هویت؟

آنچه در گفتمان در مورد هوش مصنوعی نادیده گرفته شده است این است که چگونه حس معنا، هویت و واقعیت ما به طور فزاینده ای بر تعامل با خدماتی که آن را تسهیل می کند متکی می شود. هوش مصنوعی ممکن است هوشیاری نداشته باشد، اما قدرت را به گونه‌ای اعمال می‌کند که بر احساس ما از اینکه چه کسی هستیم تأثیر می‌گذارد. این به این دلیل است که ما آزادانه با فعالیت‌هایی که با حضور آن امکان‌پذیر می‌شود شناسایی می‌کنیم و در آن شرکت می‌کنیم.

از این نظر، هوش مصنوعی یک توطئه بزرگ نیست که برای کنترل جهان و همه ساکنان آن طراحی شده است، بلکه بیشتر شبیه یک نیرو است، نه لزوماً خوب و نه بد. با این حال، در حالی که انقراض در کوتاه مدت بعید است، خطر بسیار بیشتر این است که اتکای ما به فناوری منجر به خدمت موثر انسان ها به فناوری شود. این وضعیتی نیست که هیچ یک از ما بخواهیم، حتی کمتر از آن زمانی که این فناوری هنجارهای انسانی را در بر می گیرد که بسیاری آن را کمتر از ایده آل می دانند.

برای مثالی از آنچه در اینجا در مورد آن صحبت می کنیم، بیایید دستورالعمل های عملکرد و نظارت بر درایورهای تحویل را در نظر بگیریم، که توسط سیستم های خودکار با هوش مصنوعی تسهیل می شود. آنها توسط یک گروه پارلمانی فراحزبی بریتانیا توصیف شده‌اند که بر سلامت روانی و جسمی کارگران تأثیر منفی می‌گذارند زیرا «آنها فشار شدید ناشی از مدیریت خرد مداوم و بی‌درنگ و ارزیابی خودکار را تجربه می‌کنند».

مثال دیگری توسط اریک برینیولفسون، اقتصاددان استنفورد که احتمال چیزی به نام “تله تورینگ” را مطرح کرده است، برجسته شده است. این به نگرانی هایی اشاره دارد که اتوماسیون فعالیت های انسانی می تواند ثروت و قدرت را در دستان کمتر و کمتری بگذارد. برینیولفسون در کتاب خود به نام تله تورینگ: وعده و خطر هوش مصنوعی انسان‌مانند می‌نویسد: «با این تمرکز (قدرت) خطر گرفتار شدن در تعادلی وجود دارد که در آن افراد بدون قدرت راهی برای بهبود نتایج خود ندارند. “

اخیرا، جرمی هاوارد، محقق هوش مصنوعی، توضیح داد که چگونه ChatGPT را به دختر هفت ساله‌اش معرفی کرد، پس از پرسیدن چندین سؤال در مورد آن او به این نتیجه رسید که این می تواند به نوع جدیدی از معلم خصوصی تبدیل شود و ریاضیات، علوم، انگلیسی و موضوعات دیگر را به او آموزش دهد.

واضح است که این امر مستلزم جابجایی نقش معلمان است. با این حال، هاوارد همچنین به دخترش هشدار داد که نباید هر آنچه را که می گوید باور کند. این جنبه یک خطر واقعی برای یادگیری است. و حتی اگر ChatGPT دانش دقیقی را منتقل می‌کرد، آیا دخترش این اطلاعات را به آسانی مانند زمانی که از طریق گفتار «تجسم‌شده» – به عبارت دیگر، توسط یک انسان منتقل می‌شد، حفظ می‌کرد؟

آنچه الگوریتم می بیند

این موارد دنیای واقعی روشی را نشان می‌دهد که هوش مصنوعی می‌تواند نگرش ما به جهان و خودمان را تغییر دهد. این امرنشان می دهد که بین کاربران و هوش مصنوعی یک پویایی قدرت وجود دارد که در آن ماشین بر افرادی که با آن تعامل دارند اعمال قدرت می کند.

همانطور که تاینا بوچر، استادیار ارتباطات و فناوری اطلاعات در دانشگاه کپنهاگ، در یک مقاله تحقیقاتی در سال 2016 که با کمک مصرف کنندگان انجام شد، گزارش داد: «فقط مقوله‌ها و طبقه‌بندی‌هایی که الگوریتم‌ها بر آن‌ها تکیه می‌کنند مطابق با احساس ما از خود نیست. اما تا چه حد می‌توانیم خود را از طریق “چشم” الگوریتم ببینیم.”

هوش مصنوعی اغلب به سادگی از طریق صفحه نمایش رایانه ما یا سایر رسانه های انتزاعی تر قابل دسترسی است، جز در محدودترین معنای آن تجسم نمی یابد. به این ترتیب، تأثیر آن اغلب به سطح شناختی هویت، عاری از «روح» یا حساسیت عاطفی یا چیزی که گاهی به عنوان انرژی عاطفی شناخته می‌شود، محدود می‌شود. این توصیفی است از روش‌های طبیعی که انسان‌ها با یکدیگر تعامل می‌کنند و واکنش‌ها را از یکدیگر تحریک می‌کنند.

اگر از ChatGPT بپرسید که آیا هوش مصنوعی قابل تجسم است یا خیر، پاسخ فقط مربوط به تجسم هوش ماشینی در شکل فیزیکی، مانند یک ربات است. اما تجسم در مورد احساسات، عواطف و همدلی نیز هست. نمی توان آن را به دنباله های خطی دستورالعمل کاهش داد.

این بدان معنا نیست که هوش مصنوعی بر احساسات و عواطف ما تأثیر نمی گذارد. اما ماشین‌ها هرگز نمی‌توانند زندگی عاطفی غنی را که در تعامل بین دو یا چند انسان وجود دارد، تکرار کنند. از آنجایی که به نظر می رسد زندگی ما بیش از پیش با هوش مصنوعی در هم تنیده شده است، شاید باید سرعت این رابطه را کاهش دهیم، به خصوص که واضح است که این به دور از مشارکت برابر است.

https://techxplore.com

آیا این نوشته برایتان مفید بود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *