نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

5 اردیبهشت 1403 3:23 ب.ظ

اخلاق حرفه ای در کسب و کارهای دیجیتالی

این موضوع را با انتخاب دو مطلب از سوی گارتنر و هاروارد  برای شما طرح می کنیم .

مکالمه در مورد اخلاق دیجیتال را شروع کنید

13 اکتبر 2017  راب ون در مولن

کسب و کار دیجیتال باعث ایجاد تعارض در منافع و ایجاد اختلال در آن می شود که خود باعث می شود تا رهبران کسب و کار بیشتر درباره نگرانی های اخلاقی فکر کنند. با این حال ، استفاده از ایده های انتزاعی در دنیای واقعی می تواند دشوار باشد.

Frank Buytendijk ، معاون پژوهشی و همکار گارتنر ، درباره بیش از 60 مورد کاوی در دنیای واقعی تحقیق کرده است که نشان می دهد پیامدهای اخلاقی ناخواسته کسب و کار دیجیتال برای هر صنعتی چالش برانگیز است.

    ملاحظات اخلاقی باید درونی باشد نه بصورت اجزای مجزا از هم

بسیاری از این معضلات جهانی هستند. نمونه هایی را می توان در صنایع و در مناطق مختلف جهان یافت ، اگرچه فرهنگ های مختلف به آنها متفاوت پاسخ می دهند. با این حال ، چند راهنما وجود دارد که در بیشتر شرایط مفید است:

  • از قانون طلایی استفاده کنید. از خود بپرسید چگونه دوست دارید با شما به عنوان یک انسان ، شهروند یا مشتری رفتار شود.
  • تفکر مثبت را در آغوش بگیرید. استفاده از فناوری جدید همیشه عواقب ناخواسته ای به دنبال دارد. موارد مثبت را بپذیرید و موارد نامطلوب را کنترل کنید.
  • انضباط داشته و خویشتنداری کنید. استفاده موفقیت آمیز از فناوری جدید معمولاً ناشی از این دو رفتار است و نه کنترل کردن محدودیت ها.

Buytendijk چهار معضل اخلاقی مشترک و پیامدهای احتمالی هر یک را بیان می دارد.

معضل: حریم خصوصی یا سود

یک سازمان حمل و نقل عمومی در حال معرفی کارت های الکترونیکی برای دسترسی به شبکه گسترده ای از حمل و نقل و گزینه های مناسب پرداخت بدون پول نقد است. این طرح ها محبوب هستند و حاشیه ها ی سود را افزایش می دهند ، همچنین کارایی شبکه حمل و نقل را ایجاد می کنند ، داده های مشتری زیادی تولید می کنند. آیا یک سازمان حمل و نقل عمومی باید این داده ها را به اشخاص ثالث بفروشد؟

فروش داده برای بسیاری از شرکت ها بهترین روش است و درآمد حاصل از آن می تواند برای کاهش کرایه ها یا بهبود خدمات استفاده شود. اگر با این وجود از قبل برای کاربران روشن نشده باشد که این اتفاق می افتد ، بایستی انتظار یک واکنش جدی را داشته باشید. داده ها باید برای هدف اعلام شده (سفر) استفاده شوند. در صورت تغییر ، باید با کاربران مشورت شود.

معضل: گزینه های آینده در مقابل استفاده مناسب

تلویزیون های هوشمند به طور معمول رفتار مشاهده کننده را ردیابی می کنند و آن را برای تولیدکننده ارسال می کنند تا تبلیغات را در صفحه اصلی تلویزیون شخصی سازی کند. مواردی از ارسال اطلاعات حساس از پرونده های خصوصی در ادوات ذخیره سازی USB متصل به تلویزیون وجود داشته است. آیا این امری قابل قبول است؟

در بدترین حالت این یک تخلف قانونی است و جریمه های سنگین و همچنین خسارت به شهرت کسب و کار وارد می کند. ردیابی داده های شخصی در دستگاه های خارجی از پیامدهای ناخواسته طراحی نرم افزار بود که ناشی از عدم موفقیت در مراحل طراحی برای سنجش مسائل حریم خصوصی با نیاز به ویژگی های بعدی دستگاه بود. ملاحظات اخلاقی باید درونی باشد نه  بصورت پیچ و مهره ای وصل شده باشد .

معضل: بیرون بیاورید در مقابل درست کنید

بسیاری از آنها دستیارهای دیجیتالی مانند Siri ، Cortana یا Google Now را تجربه کرده اند. این فناوری مانند هر روش دیگری می تواند به صورت غیراخلاقی مورد استفاده قرار گیرد. اگرچه شما یک سازنده اتومبیل را به دلیل حضور یک راننده مست ملامت نمی کنید ، اما ممکن است یک تولید کننده ماشین هوشمند را سرزنش کنید ، اگر دستگاهش در یک سرقت از بانک موثر باشد.

تهیه مجموعه ای از قوانین اخلاقی ثابت که از همه سو استفاده های احتمالی جلوگیری می کند دشوار است و تنظیم کنندگان آنها نمی توانند همگام با سرعت پیشرفت فناوری باشند. در حالی که امر پیش آزمایش بسیار حیاتی است ، ایجاد ویژگی هایی که امکان کنترل مداوم ماشین های هوشمند را برای عواقب ناخواسته فراهم می کند نیز مهم است.

معضل: نیازهای زیادی در مقابل نیازهای اندک است

دستیاران دیجیتال به سادگی اطلاعات را ارائه می دهند ، اما ماشین های پیشرفته تر تصمیمات بزرگی می گیرند. نرم افزار کسب و کار خودکار (بازار را خراب می کند اما صاحبش را ثروتمند می کند؟) ؛ هواپیماهای بدون سرنشین نظامی و اتومبیل های خودران همه تصمیماتی می گیرند که می تواند زندگی بعض افراد را خراب کند یا به پایان برساند. چه کسی مسئولیت را به دوش می کشد؟ برنامه نویس؟ سازنده؟ اپراتور؟

همه افراد درگیر مسئولیت دارند. وظیفه همه این است که به طور باورنکردنی دقیق و به طور مداوم نتایج ناخواسته را کنترل کنیم. با وجود یک سیستم عامل ، اگر نسخه اول با اشکال باشد ، اتفاق خیلی بدی رخ نمی دهد. اما وقتی نرم افزار شرایط زندگی و مرگ را کنترل می کند ، دیگر جایی برای خطا وجود ندارد و هزینه اعتبار آنها می تواند شرکت ها را تخریب کند.

https://www.gartner.com

========================================================================================

“Ethical Tech” را از برنامه تحول دیجیتال خود خارج نکنید

آوریل 03 ، 2020

فناوری های نوظهور فرصت فوق العاده ای را برای سازمان ها ایجاد می کنند تا باهوش تر ، چابک تر ، انعطاف پذیرتر و پاسخگوتر شوند. اما وقتی کارمندان از برنامه های جدید استفاده می کنند ، با چالش هایی روبرو می شوند که خطرات جدی و حتی مالی را برای سازمان هایشان ایجاد می کند.

برخی از شرکتهایی که فناوری را به عنوان کسب و کار اصلی خود نمی دانند ممکن است این ملاحظات را بی ربط بدانند ، حتی اگر بطور روزافزونی به فناوری های پیشرفته دیجیتال و فیزیکی برای انجام کارهای روزمره خود اعتماد کنند.

اگر صنعت یا بخش مهم نباشد ، سازمانها نمی توانند خود را خبره فن آوری بنامند ، اگر در مورد پیامدهای اخلاقی نحوه استفاده کارمندان ، مشتریان و سایر افراد در اکوسیستم خود از فن آوری ها فکر نکنند.

تعداد کمی از سازمان ها و رهبران آنها رویکرد کلی در مورد تأثیرات اخلاقی استفاده از فناوری دارند – حداقل در آغاز تحول دیجیتال. در یک مطالعه اخیر ، فقط 35 درصد از پاسخ دهندگان گفتند که رهبران سازمان آنها وقت کافی را صرف تفکر و برقراری ارتباط درباره تأثیر برنامه های دیجیتال در جامعه می کنند.

اما رهبران برای اینکه در عصر فن آوری های پیشرفته ، متصل و خودمختار واقعاً باهوش باشند ، باید فراتر از طراحی و اجرای توانایی های مبتنی بر فن آوری فکر کنند. آنها باید از ابتدا نحوه انجام چنین کاری را با مسئولیت پذیری در نظر بگیرند.

در Deloitte ، ما شاهد رابطه ای بین پیشرفت دیجیتال و فناوری یک شرکت هستیم – به عبارت دیگر ، فن آوری آن – و تمرکز آن بر روی مسائل اخلاقی مختلف مربوط به فن آوری است.تحقیقات ما نشان داد که 57 درصد از پاسخ دهندگان از سازمانهایی که “بالغ دیجیتالی” هستند ، می گویند رهبران سازمان آنها وقت کافی را صرف تفکر و انتقال تأثیرات اجتماعی ابتکارات دیجیتال می کنند ، در حالی که فقط 16 درصد از پاسخ دهندگان شرکت ها در مراحل اولیه دگرگونی دیجیتالی خود هستند.

بعلاوه ، تقریباً 80 درصد شرکتهای بالغ دیجیتالی مورد بررسی ، سیاستهای صریح و مستقیمی را برای حمایت از استانداردهای اخلاقی آنها در قبال طرحهای دیجیتالی در نظر گرفته اند ، در مقابل تنها 43 درصد شرکتها که در مراحل اولیه  هستند .

شرکتهای بالغ دیجیتالی نیز معمولاً توسط رهبرانی که متعهد به کاوش و در نظر گرفتن تأثیرات ناخواسته  اخلال گران فناوری هستند ، خود را با اخذ ورودی از مجموعه متنوع و فراگیر ذینفعان ، و پرورش فرهنگ سازمانی یادگیری مداوم ، بحث ، شفافیت ، و گفتگوی آزاد ، تطبیق می دهند.

از آنجا که سازمان ها مسائل اخلاقی را که ممکن است مخل تکامل فناوری معرفی کنند ، باید یک روش سازگار برای شناسایی مسائل اخلاقی و ایجاد اقدامات عملی ایجاد کنند. تمرکز باید شامل موارد زیر باشد:

  • هدایت به سمت مسئولیت مشترک ، فراگیر و عملکردی متقابل. اخلاق فن آوری یک مسئولیت مشترک است که باید همه کارکردها را درگیر کند و در رأس آنها ظاهر شود. همانطور که مالا آناند ، رئیس SAP از راه حل های هوشمند شرکت و صنایع ، خاطرنشان می کند ، “تفویض مسئولیت [به بخش فناوری] پاسخ نیست. ایجاد کاربردهای اخلاقی و موثر هوش مصنوعی نیاز به تعامل با کل مجموعه دارد. “
  • از همان ابتدا اخلاقاً متعهد شوید. برای پیش قدم بودن و جلو ماندن از چالش های احتمالی فناوری اخلاقی ، از همان ابتدا طراحی محصولات و خدمات جدید مبتنی بر فناوری را در نظر داشته باشید. این می تواند به سازمانها کمک کند تا مشکلات را پیش بینی کرده و از آنها اجتناب کنند ، نه اینکه پس از ایجاد موقعیتی واکنش نشان دهند.به عنوان مثال ، Salesforce یک مدیر ارشد اخلاق و استفاده انسانی برای راهنمایی استفاده از این شرکت در فناوری منصوب کرد. هدف این کار اطمینان از این است که شرکت یک چارچوب مشخص برای هدایت تصمیمات فناوری دارد . یک مدیر اجرایی گردهم آورنده ذینفعان داخلی و خارجی و کارشناسان برای اطمینان از انعطاف پذیری چارچوب برای پاسخگویی به موارد استفاده از فن آوری ، در حال ظهور است.
  • آن را مرتبط ، خاص – و انعطاف پذیر کنید. یک چارچوب راهنما ایجاد کنید که به موارد استفاده از فناوری مخصوص سازمان شما و فرهنگ آن بپردازد. همانطور که در چارچوب تصمیم گیری در زمینه اخلاق فناوری کار می کنید ، ارتباط آن را با استفاده از فناوری خاص در مواردی که سازمان شما به طور منظم با آن روبرو می شود و نحوه کار افراد شما ، به طور مشترک و جداگانه ، آزمایش کنید.
  • اطمینان حاصل کنید که این موارد فراتر از انطباق است. چارچوب های آگاهی از فن آوری اخلاقی ، شناخت و تصمیم گیری باید بخشی از DNA فرهنگی سازمان باشد – و نه تنها یک پیروی یا فعالیت سیاستی. مهم است که همه افراد در سازمان معضلات اخلاقی بالقوه مرتبط با فناوری را تشخیص دهند.
  • کارکنان خود را به منابع پاسخگویی مجهز کنید. تیم ها و افراد باید منابع لازم برای تصمیم گیری اخلاقی در مورد فناوری را داشته باشند. مانند اکثر مسائل بزرگتر از هر شخص ، وقتی با تعداد فزاینده ای از چالش های اخلاقی بالقوه فناوری روبرو می شوند ، کارکنان احتمالاً تعجب می کنند که چه کاری می توانند انجام دهند.

با پیشرفت سریع و غیرقابل پیش بینی فناوری ، نمی توان رویکردهای فن آوری اخلاقی را تنظیم و فراموش کرد – آنها باید در صورت لزوم ارزیابی و به روز شوند. فن آوری اخلاقی به رهبران بستگی دارد که امروزه این فناوری را در اولویت خود قرار دهند ، آن را در فرهنگ سازمانهای خود قرار دهند و فرایندهای تصمیم گیری اخلاقی را ، متفکرانه ، و با توجه به تجربه فن آوری و تنوع ورودی که می تواند در آینده تطبیق داده شود در نظر بگیرند.

https://hbr.org

آیا این نوشته برایتان مفید بود؟

مطالب مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *