نوآوری در مدیریت برای توسعه پایدار

Kolnegar Private Media (Management Innovation for Sustainable Development)

17 بهمن 1403 2:20 ب.ظ

ابزار مبتنی بر هوش مصنوعی رابط های ساده ای را برای واقعیت مجازی و واقعیت افزوده ایجاد می کند

ابزار مبتنی بر هوش مصنوعی رابط های ساده ای را برای واقعیت مجازی و واقعیت افزوده ایجاد می کند

13 نوامبر 2024 -توسط شارلوت هو، دانشگاه کارنگی ملون -محققان از یک حسگر لمسی سفارشی استفاده کردند که در امتداد زیر انگشت اشاره و کف دست قرار داشت تا اطلاعات مربوط به انواع لمس را با نیروهای مختلف جمع‌آوری کند و در عین حال برای دوربین نامرئی بماند. اعتبار: دانشگاه کارنگی ملون

مقاله ای منتشر شده در مجموعه مقالات سی و هفتمین سمپوزیوم سالانه ACM در زمینه نرم افزار و فناوری رابط کاربری، توسط محققان موسسه تعامل انسان و کامپیوتر دانشگاه کارنگی ملون، EgoTouch را معرفی می کند، ابزاری که از هوش مصنوعی برای کنترل رابط های AR/VR با لمس پوست یک انگشت استفاده می کند.

این تیم می خواست در نهایت کنترلی طراحی کند که بازخورد لمسی را تنها با استفاده از حسگرهایی که با یک هدست استاندارد AR/VR ارائه می شود، ارائه دهد.

OmniTouch، روش قبلی که توسط کریس هریسون، دانشیار HCII و مدیر گروه Future Interfaces ساخته شده بود، نزدیک شد. اما این روش نیاز به یک دوربین خاص، ضخیم و حسگر عمق داشت. ویمال مولین،  دانشجوی دکتری که توسط هریسون توصیه شده بود، این ایده را داشت که از یک الگوریتم یادگیری ماشینی برای آموزش دوربین های معمولی برای تشخیص لمس کردن استفاده کند.

مولین گفت: “سعی کنید انگشت خود را بردارید و ببینید وقتی پوست خود را با آن لمس می کنید چه اتفاقی می افتد. متوجه خواهید شد که این سایه ها و تغییر شکل های موضعی پوست وجود دارد که فقط در هنگام لمس پوست رخ می دهد.” اگر بتوانیم اینها را ببینیم، می‌توانیم یک مدل یادگیری ماشینی را برای انجام همین کار آموزش دهیم، و اساساً این همان کاری است که ما انجام دادیم.»

مولین داده ها را برای EgoTouch با استفاده از یک حسگر لمسی سفارشی که در امتداد زیر انگشت اشاره و کف دست قرار داشت جمع آوری کرد. این سنسور داده‌ها را در مورد انواع لمس با نیروهای مختلف جمع‌آوری می‌کند در حالی که برای دوربین نامرئی می‌ماند. سپس مدل یاد گرفت که ویژگی‌های بصری سایه‌ها و ناهنجاری‌های پوست را با لمس و فشار بدون حاشیه‌نویسی انسانی مرتبط کند.

این تیم مجموعه داده های آموزشی خود را گسترش داد و شامل 15 کاربر با رنگ پوست و تراکم موی مختلف شد و ساعت ها اطلاعات را در بسیاری از موقعیت ها، فعالیت ها و شرایط نوری جمع آوری کرد.

EgoTouch می تواند لمس را با دقت بیش از 96٪ تشخیص دهد و دارای نرخ مثبت کاذب در حدود 5٪ است. فشار دادن به پایین، بلند کردن و کشیدن را تشخیص می دهد. این مدل همچنین می‌تواند سبک یا سخت بودن لمس را با دقت 98 درصد طبقه‌بندی کند.

مولین می‌گوید: «این می‌تواند برای داشتن قابلیت کلیک راست روی پوست واقعا مفید باشد.

تشخیص تغییرات در تماس می تواند توسعه دهندگان را قادر می سازد تا حرکات صفحه لمسی روی پوست را تقلید کنند. به عنوان مثال، یک گوشی هوشمند می تواند اسکرول کردن صفحه به بالا یا پایین، بزرگنمایی، کشیدن انگشت به سمت راست، یا فشار دادن و نگه داشتن یک نماد را تشخیص دهد. برای ترجمه این به یک رابط مبتنی بر پوست، دوربین باید تفاوت‌های ظریف بین نوع لمس و نیروی لمس را تشخیص دهد.

دقت در رنگ های مختلف پوست و تراکم مو، و در نواحی مختلف دست و ساعد مانند جلوی بازو، پشت بازو، کف دست و پشت دست تقریباً یکسان بود. این سیستم در نواحی استخوانی مانند بند انگشتان عملکرد خوبی نداشت.

مولین گفت: «احتمالاً به این دلیل است که تغییر شکل پوست در آن نواحی زیاد نبوده است. “به عنوان یک طراح رابط کاربری، کاری که می توانید انجام دهید این است که از قرار دادن عناصر در آن مناطق اجتناب کنید.”

Mollyn در حال بررسی راه‌هایی برای استفاده از دوربین‌های دید در شب و روشنایی در شب برای فعال کردن سیستم EgoTouch در تاریکی است. او همچنین با محققان برای گسترش این روش تشخیص لمسی به سطوحی غیر از پوست همکاری می کند.

مولین گفت: “برای اولین بار، ما سیستمی داریم که فقط از دوربینی استفاده می کند که از قبل در همه هدست ها وجود دارد. مدل های ما بدون کالیبراسیون هستند و کاملاً خارج از جعبه کار می کنند.” اکنون می‌توانیم کارهای قبلی را روی رابط‌های روی پوست انجام دهیم و در واقع آنها را واقعی کنیم.»

https://techxplore.com

آیا این نوشته برایتان مفید بود؟

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *