نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

21 آذر 1403 12:37 ق.ظ

هرچه فناوری قدرتمندتر می شود ، در حال ورود به یک جهان اخلاقی جدید هستیم

2020 فوریه 16 Tonto دیجیتال توسط گرگ ساتل

ما این را تصدیق می کنیم که قرار است اخلاقی عمل کنیم و  این موضوع معمولاً خیلی ساده به نظر می رسد. دروغ نگو ، تقلب نکن و دزدی نکن ، کسی را به عمد صدمه نده و با نیت خوب عمل کن. در برخی از حرفه ها ، مانند وکالت یا پزشکی ، موضوعات تا حدودی پیچیده تر است و پزشکان برای تصمیم گیری های خوب  و درست آموزش می بینند.

با این حال ، اخلاق به معنای کلاسیک خیلی به این معنا نیست که آنچه را می دانید درست است ، بلکه به طور جدی فکر می کنید که چه چیزی درست است. برخلاف نوع اخلاق کلاسیک “ده فرمان” ، موقعیت های بسیاری بوجود می آیند که تعیین یک عمل صحیح برای انجام آن آشکار نیست.

امروز ، هرچه فناوری قدرتمندتر و پیچیده تر می شود ، اهمیت مسائل اخلاقی به طور فزاینده ای  افزایش می یابد. در طول یک دهه آینده ما باید در مورد مسائلی مانند مسئولیت پذیری یک دستگاه و اینکه تا چه اندازه باید ماهیت زندگی را تغییر دهیم به توافق برسیم. پاسخ ها کاملاً واضح و روشن نیستند ، اما ما به شدت نیاز داریم که آنها را پیدا کنیم.

مسئولیت ها

ده ها سال است که روشنفکران درگیر یک معضل اخلاقی هستند که به عنوان مشکل برادری شناخته می شود. تصور کنید که یک واگن برقی که در حال رد شدن در مسیری است که منجر به کشتن بیش از پنج نفر می شود و شما آنرا ، مشاهده می کنید. تنها راه کاهش مقتولین ، کشیدن اهرمی برای جابجایی واگن برقی به مجموعه های مختلف است ، اما اگر این کار را انجام دهید ، یک نفر که در آن مسیر ایستاده است کشته خواهد شد. چه باید کرد؟

در اکثر موارد ، مثال واگن برقی موضوعی بوده است که برای کلاسهای فلسفه  مقدماتی و مهمانی های آوانگارد ، بدون هیچ گونه تأثیرگذاری بر تصمیمات واقعی مطرح شده است . با این حال ، با ظهور فن آوری هایی مانند اتومبیل های خودران ، تصمیماتی از قبیل محافظت از زندگی مسافران یا عابران پیاده ، نیاز به تعیین کد های اخلاقی صریح در سیستمهای ایجاد شده توسط ما را دارد.

این فقط شروع کار است که به طور فزاینده ای آشکار می شود که تعصب نسبت به داده ها می تواند تصمیمات مربوط به همه چیز را اعم از اینکه در مدرسه پذیرش شویم ، شغلی بگیریم یا حتی به زندان برویم ، تحریف کند. با این وجود ، ما هنوز به وضوح  دید گاه واقعی پیرامون اینکه چه کسی باید در  این موارد تصمیماتی الگوریتمیک اتخاذ کند و پاسخگو باشد نداریم.

هرچه جلوتر می رویم ، باید به مسئولیت این موارد فکر جدی بکنیم. چه کسی مسئول تصمیماتی است که یک دستگاه می گیرد؟ چه چیزی باید این تصمیمات را راهنمایی کند؟ کسانی که تحت تأثیر تصمیم یک ماشین قرار دارند باید چه اقدامی بکنند؟ اینها دیگر مباحث نظری نیستند بلکه مشکلات عملی هستند که باید حل شوند.

ارزیابی وضعیت

جی رابرت اپنهایمر به نقل از باگاواد گیتا گفته است : “اکنون من به ناوشکن مرگ جهان تبدیل شده ام.” به محض مشاهده اولین انفجار هسته ای جهان ، هنگامی که دشت های نیومکزیکو را لرزاند این جمله را بیان داشت. مشخص بود که از روبیکون عبور کرده بودیم. برگشتی به عقب باقی نماند و اوپنهایمر به عنوان رهبر پروژه احساس مسئولیت عظیمی را حس کرد.

با این حال ، شگفت انگیز آخرالزمان هسته ای تنها بخشی از داستان بود. در دهه های بعد ، پزشکی هسته ای جان هزاران نفر را نجات داد ، اگر نه میلیون ها نفر را. ایزوتوپهای رادیواکتیو خفیف ، که به ما امکان می دهد مولکول ها را در حالی که از طریق یک سیستم بیولوژیکی حرکت می کنند ، ردیابی کنیم ، یک مزیت تحقیق پزشکی است.

حقیقت این است که هر پیشرفت چشمگیر ، برای بشر و زندگی هم ضرر و هم منفعت است.    CRISPR را در نظر بگیرید ، فناوری ویرایش ژن که به شدت توانایی ما در تغییر DNA را تسریع می کند. این پتانسیل برای درمان بیماری های وحشتناک مانند سرطان و مولتیپل اسکلروزیس مفید است ، اما همچنین موضوعات نگران کننده ای از قبیل Biohacking و طراحان نوزاد غیر طبیعی را به وجود می آورد.

در مورد فناوری هسته ای ، بسیاری از دانشمندان از جمله اوپنهایمر فعال شدند. آنها به طور فعال با عموم مردم ، از جمله سیاستمداران ، روشنفکران و رسانه ها درگیر شدند تا نسبت به خطرات بسیار جدی فناوری هسته ای آگاهی یابند و به سمت راه حل های عملی تلاش کنند.

امروزه ما به تعامل مشابه بین افرادی که فناوری را ایجاد می کنند و تعامل عمومی نیاز داریم تا پیامدهای فناوری هایی مانند AI و CRISPR را کشف کنیم ، اما این امر به سختی آغاز شده است. این یک مشکل واقعی وجدی در ایجاد یک اجماع مبتنی بر شفافیت است.

به راحتی می توان عکس هایی از فن آوری های جدید را رنگ آمیزی کرد و ارایه داد . با این حال ، اگر نگاه دقیق تری داشته باشید ، مسئله پیشرفت تکنولوژی نیست بلکه  موضوع خودمان هستیم. به عنوان مثال ، رسوایی های اخیر مربوط به فیس بوک مربوط به موضوعات ذاتی در وب سایت های رسانه های اجتماعی نبود ، بلکه بیشتر مربوط به نقض وحشتناک اعتماد و عدم شفافیت بود. شرکت هزینه زیادی برای آن پرداخت کرده است و به احتمال زیاد آن هزینه ها همچنان اضافه می شوند.

لازم نیست همه موارد اینگونه باشد.  پرونده پل برگ ، پیشگام در ایجاد DNA نوترکیب را در نظر بگیرید ، که وی برنده جایزه نوبل شد. بر خلاف زاکربرگ ، وی خطرات را تشخیص داد و کنفرانس Asilomar را برای بحث درمورد این خطرات تشکیل داد ، که نتیجه آن انتشار بیانیه برگ بود که خواستار مهلت قانونی برای آزمایشات شد تا اینکه پیامدها بهتر درک شوند.

در کتاب خود ، A Crack in Creation ، جنیفر دودنا ، که کشف محوری را برای ویرایش ژن CRISPR انجام داد ، خاطرنشان می کند که جنبه اصلی ارتباطی کنفرانس Asilomar این بود که نه تنها دانشمندان ، بلکه حقوقدانان ، مقامات دولتی و رسانه ها را نیز شامل می شد. این گفتگو بین مجموعه متنوعی از ذینفعان و احساس شفافیت حاصل از آن بود که به پیشرفت در این زمینه کمک کرد.

فیلسوف مارتین هایدگر اظهار داشت که پیشرفت تکنولوژی فرایندی از آشکار سازی و ساختن است. ما نمی توانیم آنچه را که از طریق اکتشاف کشف می کنیم کنترل کنیم ، اما می توانیم- و باید – درباره آنچه می سازیم ، دانا باشیم.

رعایت استانداردهای جدید

در کتاب هومو دئوس ، یووال نوح هراری می نویسد که بهترین دلیل برای یادگیری تاریخ “نه به منظور پیش بینی ، بلکه برای رهایی از گذشته و تصور سرنوشت های جایگزین است.” همانطور که قبلاً دیدیم ، وقتی به سمت فن آوری هایی مانند انرژی هسته ای حرکت می کنیم ، مشکلاتی مانند چرنوبیل و فوکوشیما ایجاد می کنیم و پتانسیل فناوری را کاهش می دهیم.

مسائلی که باید طی چند دهه آینده بفهمیم ، بسیار پیچیده تر و نتیجه بخش تر از هر چیزی است که قبلاً با آنها روبرو بوده ایم. فناوری هسته ای ، ضمن هراس از پتانسیل های خود برای تخریب ، به تولید علمی فوق العاده ای نیاز دارد. حتی امروز ، محدود به دولت ها و نهادهای بزرگ است.

فن آوری های جدید مانند هوش مصنوعی و ویرایش ژن به مراتب بیشتر قابل دسترسی است. هرکسی که دارای تخصص خاصی باشد می تواند به صورت آنلاین و الگوریتم های قدرتمند به صورت رایگان آن را بارگیری کند. بچه های دبیرستانی می توانند کیت های CRISPR را با چند صد دلار سفارش دهند و ژن ها را تغییر دهند. ما باید نسبت به سازمان هایی مانند فیس بوک و گوگل قضاوت های به مراتب بهتری انجام دهیم.

اینها پیشرفتهای مهمی است ، اما آنها کمی بیشتر در مراحل اولیه هستند. ما برای دستیابی به نوعی اجماع در مورد خطرات و آنچه ما به عنوان یک جامعه مایل به پذیرش آن هستیم ، نیاز به گفتگوی عمومی بیشتری در مورد فن آوری های ایجاد شده داریم. در غیر این صورت ، پیامدهای اقتصادی و غیره ممکن است فاجعه بار باشد. https://www.digitaltonto.com

آیا این نوشته برایتان مفید بود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *