توسط راشل گوردون ، MIT CSAIL 20 ژانویه 2021
یک الگوریتم جدید با قابلیت استنباط اهداف و برنامه ها می تواند به ماشین ها کمک کند تا با ماهیت ناقص برنامه ریزی انسانی سازگار شوند.
در یک آزمایش کلاسیک در مورد هوش اجتماعی انسان توسط روانشناسان فلیکس وارنکن و مایکل توماسلو ، یک کودک نوپای 18 ماهه مردی را مشاهده می کند که یک دسته کتاب را به سمت یک کابینت باز نشده حمل می کند. هنگامی که مرد به کابینت می رسد ، با کلافگی چندین بار کتاب را به درب کابینت می کوبد ، و سپس سر و صدایی مبهم ایجاد می کند.
اتفاق قابل توجه بعدی رخ می دهد: کودک نوپا پیشنهاد کمک می کند. کودک نوپا با استنباط از هدف مرد ، به سمت کابینت می رود و درهای آن را باز می کند ، به مرد اجازه می دهد تا کتاب های خود را در داخل آن قرار دهد. اما کودک نوپا چگونه با چنین تجربه محدود زندگی قادر به این استنباط است؟
اخیراً ، دانشمندان کامپیوتر این سوال را به سمت رایانه سوق داده اند: چگونه ماشین ها می توانند همین کار را انجام دهند؟
مولفه مهم مهندسی این نوع درک بدون شک همان چیزی است که ما را بیشتر انسان می کند و اشتباهات ماست. همانطور که کودک نوپا فقط از شکست خود می تواند هدف مرد را استنباط کند ، ماشین هایی که اهداف ما را استنباط می کنند باید اقدامات و برنامه های اشتباه ما را پاسخ دهند.
در تلاش برای به دست آوردن این هوش اجتماعی در ماشین آلات ، محققان آزمایشگاه علوم رایانه ای و هوش مصنوعی MIT (CSAIL) و گروه علوم مغزی و شناختی الگوریتمی را ایجاد کردند که می تواند اهداف و برنامه ها را استنباط کند ، حتی در صورت شکست این برنامه ها.
این نوع تحقیقات می تواند سرانجام برای بهبود طیف وسیعی از فناوری های کمکی ، ربات های مشارکتی یا مراقب ، و دستیارهای دیجیتالی مانند سیری و الکسا مورد استفاده قرار گیرد.
ماشین هایی که اهداف انسانی را می فهمند
Tan Zhi-Xuan ، دانشجوی دکترای گروه مهندسی برق و علوم کامپیوتر MIT (EECS) و نویسنده اصلی مقاله جدید ، می گوید: “این توانایی پاسخگویی به اشتباهات می تواند برای ساخت ماشین هایی که به شدت منافع ما را استنباط می کنند و عمل می کنند ، بسیار مهم باشد.” مقاله در مورد تحقیق “در غیر این صورت ، سیستم های هوش مصنوعی ممکن است به اشتباه استنباط کنند که ، از آنجا که ما نتوانستیم به اهداف درجه بالاتر خود برسیم ، بالاخره این اهداف مورد نظر نبودند. ما دیده ایم که وقتی الگوریتم ها از استفاده انعکاسی و برنامه ریزی نشده ما از رسانه های اجتماعی تغذیه می کنند ، چه اتفاقی می افتد و ما را به سمت مسیرهای وابستگی و دو قطبی شدن سوق می دهد. در حالت ایده آل ، الگوریتم های آینده اشتباهات ، عادت های بد و غیر منطقی های ما را تشخیص می دهند و به ما کمک می کنند تا به جای تقویت آنها ، از آنها جلوگیری کنیم. “
تیم برای ایجاد مدل خود از Gen ، یک پلت فرم جدید برنامه نویسی هوش مصنوعی که اخیراً در MIT ایجاد شده است ، استفاده کرد تا برنامه ریزی نمادین AI را با استنباط بیزی ترکیب کند. استنتاج بیزی یک روش بهینه برای ترکیب باورهای نامطمئن با داده های جدید را فراهم می کند ، و به طور گسترده ای برای ارزیابی ریسک مالی ، آزمایش تشخیصی و پیش بینی انتخابات استفاده می شود.
مدل این تیم 20 تا 150 برابر سریعتر از روش پایه موجود به نام Bayesian Inverse Reinforcement Learning (BIRL) است که با مشاهده رفتار آن ، اهداف ، ارزش ها یا پاداش های یک نماینده را می آموزد و سعی در محاسبه سیاست ها یا برنامه های کامل دارد. مدل جدید در استنباط اهداف 75 درصد از زمان دقیق بود.
استوارت راسل ، استاد مهندسی اسمیت زاده در دانشگاه کالیفرنیا در برکلی ، می گوید: “هوش مصنوعی در حال کنار گذاشتن” مدل استاندارد “است که هدف مشخصی به دستگاه داده می شود. “در عوض ، ماشین می داند که نمی داند ما چه می خواهیم ، این بدان معنی است که تحقیق در مورد استنباط اهداف و ترجیحات از رفتار انسان به یک موضوع اصلی در هوش مصنوعی تبدیل می شود. این مقاله آن هدف را جدی گرفته است.
در حالی که در مورد استنباط اهداف و خواسته های عوامل کار قابل توجهی انجام شده است ، اما بیشتر این کار فرض بر این است که کارگزاران برای رسیدن به اهداف خود بهینه عمل می کنند.
با این حال ، تیم به ویژه از یک روش معمول برنامه ریزی انسانی که عمدتاً بهینه نیست ، الهام گرفته است: نه اینکه همه چیز را از قبل برنامه ریزی کنید ، بلکه فقط باید برنامه های جزئی تشکیل دهید ، آنها را اجرا کنید و سپس دوباره از آنجا برنامه ریزی کنید. گرچه این می تواند منجر به اشتباهاتی شود زیرا “زودتر از زمان” کافی فکر نمی کنیم ، اما همچنین باعث کاهش بار شناختی می شود.
در حالی که تا به امروز محققان استنباط را فقط در مسائل برنامه ریزی نسبتاً كمی نسبت به مجموعه اهداف ثابت بررسی كرده اند ، آنها با كارهای آینده قصد دارند سلسله مراتب غنی تری از اهداف و برنامه های انسانی را مورد بررسی قرار دهند. با رمزگذاری یا یادگیری این سلسله مراتب ، ماشین آلات ممکن است اهداف بسیار گسترده تری و همچنین اهداف عمیق تری را که در خدمت آنها است ، استنباط کنند.
ژوان می گوید: “اگرچه این کار فقط یک گام اولیه کوچک را نشان می دهد ، اما امید من این است که این تحقیقات زمینه های فلسفی و مفهومی لازم برای ساخت ماشین هایی را فراهم کند که اهداف ، برنامه ها و ارزش های انسانی را به درستی درک کنند.