چگونه ها: سیستم های ژست ۳ بعدی چطور کار می کنند؟

چطور می توان رابط کاربری گرافیکی دستگاه های کامپیوتری را بهبود بخشید؟ چه قدم هایی باید برداشت تا نحوه تعامل کاربران با تکنولوژی را تغییر داد؟ بحث تنها بر سر توسعه ابزارهای مناسب نیست. بلکه باید نوع استفاده گجت ها توسط مردم را هم لحاظ کرد. پیشرفته ترین رابط کاربری، هیچ خواهد بود اگر در اولین استفاده عادی در زندگی روزمره، حس درستی نداشته باشد.

ما به سرعت داریم در عصری جلو می رویم که نیاز به بازتعریف رابط کاربری بیشتر در آن حس می شود. کامپیوترها دیگر فقط دستگاه هایی رومیزی نیستند، بلکه در دست ما به شکل تبلت و تلفن هوشمند و سایر گجت ها قرار گرفته اند و اگر همین طور پیش برود، تک تک ابزارها و گجت ها، درون خود یک کامپیوتر هر چند کوچک جای خواهند داد.

به خصوص در چند سال اخیر، شاهد رشد فناوری های تصویر برداری ۳ بعدی هستیم، متبلور کردن ظرفیت های این بُعد سوم، نیازمند رویکردی نوآورانه است. یک سیستم ژست ۳ بعدی (3D Gesture System) دقیقا راهی برای ورود به این چالش است.

مستر بلیط

در ابتدایی ترین سطح، یک سیستم ژست های ۳ بعدی، حرکات انجام گرفته در محیط فیزیکی را به دستوراتی قابل اجرا توسط کامپیوتر تبدیل می کند. کاربردهای چنین تکنولوژی نوینی از بازی های ویدیویی گرفته تا مدیریت داده را پوشش می دهند. اما ساختن یک سیستم ژست ۳ بعدی که واقعا قابل استفاده باشد، شامل مجموعه ای از چالش ها است.

مهندسین مختلفی کوشیده اند سیستم هایی از این دست را برای "تفسیر حرکات بدن به دستورات کامپیوتری" خلق کنند و ما در این مطلب به رویکرد آنها، کارکردهای یک چنین سیستمی و البته قطعات و تکنولوژی های مورد نیاز برای ساختن سیستم ژست ۳ بعدی می پردازیم.

در ادامه مطلب با دیجیاتو همراه باشید.

 

اجزا مختلف یک سیستم ژست ۳ بعدی

سیستم تشخیص فیزیکی کینکت ۲

سیستم تشخیص فیزیکی کینکت ۲

اجزا یک سیستم ژست ۳ بعدی را می شود به دو دسته اصلی تقسیم کرد: نرم افزار و سخت افزار. اینها در کنار هم حرکات بدن کاربر را تشخیص می دهند و آنها را به دستورات مختلف تفسیر می کنند. کشتن زامبی ها در یک بازی ویدیویی، حرکت در بین تنظیمات برنامه های مختلف، و غیره، با حرکات دست، سر و بدن میسر می شوند.

در بخش سخت افزاری، اغلب یک یا چند دوربین، در کنار کامپیوتر برای پردازش ژست ها، و البته نمایشگر قرار دارند. همان طور که در ادامه خواهید خواند، بعضی از سیستم های مدرن تر از سخت افزارهایی غیر از دوربین استفاده می کنند که چنین محصولاتی اغلب در دسته گجت های پوشیدنی می گنجند.

اما در سیستم های دوربینی ممکن است عناصر اضافه ای برای درک عمق میدان استفاده شود. به عنوان مثال یک پرتو افکن و سنسور دریافت کننده فروسرخ. داده های جمع آوری شده با دوربین و سنسور ها توسط کامپیوتر دریافت و پردازش می شوند و سپس نمایشگر تصویر به دست آمده را نشان می دهد تا کاربر از نتایج مطلع شود. ممکن است نمایشگر داده ها را طوری نشان دهد تا شما قادر به تشخیص دامنه حرکات لازم برای انجام صحیح ژست ها نیز شوید.

نرم افزار مفسر قلب یک سیستم تشخیص ژست سه بعدی است.

در بخش نرم افزاری شما نیازمند برنامه های کاربردی (یا اپلیکیشن هایی) هستید که بتوانند اطلاعات جمع آوری شده توسط نرم افزار دستگاه را تبدیل به نتایج معنادار کنند. اینطور نیست که هر حرکتی تبدیل به یک دستور قابل فهم برای سیستم شود، و بر عکس، گاهی ممکن است حرکت های تصادفی شما باعث به اشتباه افتادن سیستم و اجرای دستورات شوند. برای جلوگیری از این دستورات ناخواسته، نرم افزار سیستم ژست ۳ بعدی دارای الگوریتم های تصحیح خطا است.

چرا سازندگان این سیستم ها نگران مقوله تصحیح خطا هستند؟ زیرا ممکن است یک ژست نیازمند آستانه های اطمینان باشد که بعد از وقوع آنها نرم افزار وارد عمل شود و آن حرکت را به عنوان دستوری صحیح اجرا کند. در غیر این صورت استفاده از سیستم می تواند یک آزمون و خطای خسته کننده باشد. تصور کنید که دارید روی یک شی ۳ بعدی کار می کنید و با حرکت دست ابعاد و شکل آن را تغییر می دهید. ناگهان، عطسه می کنید و کل طرحی که تا این لحظه کشیده بودید خراب می شود زیرا حرکات غیر ارادی بدن تان باعث به هم ریختن طرح شده.

الگوریتم های تصحیح خطا تنها زمانی اجازه می دهند یک ژست حرکتی تبدیل به دستور کامپیوتری شود که حرکت یا حرکات تشکیل دهنده آن ژست در آستانه اطمینانی نزدیک به الگوی از پیش ثبت شده باشند. در صورتی که نرم افزار تشخیص دهد شما ژست را درست انجام نداده اید و آستانه اطمینان لازم برای اجرای دستور رعایت نشده، می تواند حرکت شما را نادیده بگیرد و آن را به دستور ترجمه نکند.

الگوریتم های تصحیح خطا بخش مهمی از نرم افزار این طور سیستم ها هستند.

ممکن است برخی دستورات به اندازه سایرین حساس نباشند. در نتیجه آستانه اطمینان آنها فراخ تر در نظر گرفته می شود. اما در آن سو هم اجرای برخی دستورات نیازمند حرکت های دقیق برای شبیه سازی ژستی است که الگوی آن قبلا در سیستم ثبت شده. برای مثال، حرکت در گالری عکس می تواند با چپ و راست بردن دست انجام شود و اصلا هم دستور پیچیده ای نیست. پس سیستم و الگوریتم تصحیح خطا در مورد آن سخت گیری نمی کند. ولی اجرای برخی دستورات دیگر، مثلا در نرم افزارهای دیزاین ۳ بعدی، ممکن است دقت بالاتری بطلبد.

 

تشخیص و نمایش

xbox-one-kinect-tracking-1024x671-w640

دنبال کردن و تشخیص ژست ها بخشی از کار نرم افزار در چنین سیستم هایی است که البته باید به برنامه های کاربردی هم وصل شود تا ژست های کاربردی تبدیل به دستورات معنادار بر روی نمایشگر شوند. در برخی اپلیکیشن ها این فرآیند سرراست است. مثلا در آلبوم عکس تنها به چند ژست برای عقب و جلو رفتن، زوم به داخل یا خارج، چرخاندن عکس ها و غیره نیاز دارید که هر یک ساده هستند.

اما دیگر برنامه ها، احتمالا نیازمند ژست های پیچیده تر و بیشتری خواهند بود. مثلا اگر می خواهید یک بازی تنیس را با کنسول خودتان که سنسور تشخیص ژست ۳ بعدی دارد انجام دهید، کار نرم افزار خیلی پیچیده تر خواهد بود. شما بازی را اجرا می کنید و راکت تنیس را بر می دارید. اما بعدش چه؟

اسکرین شات مربوط به شرکت پرایم سنس خریده شده توسط اپل.

اسکرین شات مربوط به شرکت پرایم سنس خریده شده توسط اپل.

  • اول اینکه نرم افزار باید صحنه روبروی خود را مشاهده کند و راکت را در دست شما تشخیص دهد.
  • سپس با شروع بازی، شما منتظر زدن سرویس توسط رقیب کامپیوتری تان می شوید. توپ دیجیتال در صفحه تلویزیون به شما نزدیک می شود و در همین حین، سیستم ژست ۳ بعدی باید تشخیص دهد که اگر توپ واقعی می بود، در کدام بخش از محیط فیزیکی که شما در آن هستید، فرود می آمد.
  • اینجا است که بخش بعدی کار سیستم شروع می شود. شما حرکت می کنید، آماده برگشت دادن توپ با راکت می شوید و حالا سیستم ۳ بعدی باید واکنش شما را تحلیل نماید، آن را با مسیر حرکت توپ همسنجی کند، و بفهمد که آیا به توپ رسیده اید یا اینکه از شما عبور کرده و امتیاز را واگذار کرده اید.
  • به فرض اینکه شما تجربه تنیس دارید و به توپ می رسید، تحلیل نوع ضربه شما مرحله بعدی برای سیستم خواهد بود که آن را با تشخیص جهت حرکت راکت، شدت ضربه و نوع حرکت بدن شما انجام می دهد.
  • حالا که مشخص شد توپ کجا می رود، نرم افزار مسیر پرواز آن را روی تلویزیون به تصویر می کشد و به همین طریق بازی ادامه می یابد.

بعضی از بازی ها شامل استفاده از راکت یا چوب (گلف، بیس بال) نمی شوند و کل بازی بر اساس حرکت اندام شما جلو می رود. در این مورد نیز کار سیستم این است که مطمئن شود حرکات شما منجر به جلو رفتن داستان یا گیم پلی می شود و البته تاثیرات آن بر محیط بازی هم باید بدون وقفه تحلیل، محاسبه و به تصویر کشیده شود.

حتما موافق هستید که این سلسله تحلیل ها، دریافت ها و بازخوردها اصلا کار کوچکی نیست و درست به همین خاطر بعضی از اپلیکیشن ها ابتدا از شما می خواهند با انجام حرکات مشخص، به کالیبره کردن سیستم قبل از شروع کار کمک کنید.

 

نگاهی به عمق

webcammesh-w640

یک دوربین عادی تصاویری ۲ بعدی از دنیا می گیرد. با داشتن یک لنز نور به طور مستقیم به سنسور می رسد و دستگاه داده های مربوط به آن را ثبت می کند که بعدا به صورت یک تصویر دیجیتال قابل مشاهده است. هر چند ما می توانیم بر اساس اندازه اشیا تخمین بزنیم که در چه فاصله ای از دوربین قرار داشته اند ولی ساختن یک تصویر سه بعدی با استفاده از سیستم دوربین ۲ بعدی ممکن نیست.

این محدودیت باعث بروز یک مشکل در رابط های کاربری ژست محور می شود. اگر شما در جلوی یک دوربین عادی قرار بگیرید و دست های خود را تکان دهید، دوربین قادر به ثبت حرکات افقی و عمودی شما است. شاید یک کامپیوتر با نرم افزار مناسب هم بتواند با تحلیل آن حرکات، دستورات را هم تشخیص دهد. اما اگر دست های خود را در عمق (به سمت دوربین) حرکت دهید، کار خراب می شود و سیستم به دردسر می افتد. سیستم های ۲ بعدی در تمایز قائل شدن بین پس زمینه و بدن کاربرد مشکل دارند و در تشخیص حرکت های عمقی ناتوانند.

پس چطور می شود به یک دوربین یاد داد که به صورت ۳ بعدی ببیند؟ یک راهکار، استفاده از سیستم دوربین استریو است؛ یعنی به زبان ساده، افزودن دوربین دوم. به این شکل هر دوربین تصویری از محیط روبرو می گیرد و داده های این دو تصویر به یک کامپیوتر فرستاده می شود که با مقایسه آن دو با هم، سیستم قادر به تشخیص عمق می شود. این دو دوربین لزوما نباید در کنار هم باشند، مثلا می شود یکی را کنار تلویزیون قرار داد و دیگری را در ارتفاع بالاتر، طوری که از بالا به اتاق نگاه کند.

در واقع این روش، تقلیدی از سیستم بینایی انسان است. ما نیز با دو چشم خود عمق را تشخیص می دهیم. تخمین فاصله یک شیء نسبت به خودمان، به مولفه های بصری مختلفی بستگی دارد. یکی از آنها ناشی از اختلاف منظر (Parallax) است. اختلاف منظر یعنی دیده شدن یک منظره واحد از دو زاویه که اندکی با هم تفاوت دارند. اگر خطی مستقیم از هر چشم به شیئی در مقابل خود بکشید، در نقطه ای به هم می رسند که همان موقعیت شیء است. مغز انسان با تلفیق این دو جریان داده و اطلاعاتی که از دو چشم نشأت می گیرند، تصویری سه بعدی را در ذهن مان خلق می کند.

 

بازی با نور

novo-kinect-01

سرعت نور در خلاء ۲۹۹،۷۹۲،۴۵۸ متر بر ثانیه است. شاید فکر کنید “خب که چه؟ به من چه مربوط؟” ولی موقع ساختن سیستم ژست ۳ بعدی، سرعت نور به کمک می آید. به خصوص اگر سیستم از نوع مدت-زمان-سفر-نور باشد.

سیستمی از این دست، یک سنسور عمق سنج و پروژکتور را در کنار دوربین قرار می دهد. پروژکتور نور را به صورت پالس هایی از خود منتشر می کند، البته نه هر نوری را. بلکه نور فروسرخ را که خارج از طیف نورهای مرئی برای چشم ما است. سنسور عمق سنج تمام نور فروسرخی را که از روی اشیا موجود در محیط بازتاب پیدا کرده اند، تشخیص می دهد. یک زمان سنج نیز مدتی که طول می کشد تا نور خارج شده از پروژکتور، از روی اشیا بازتابانده شود و به سنسور بازگردد را حساب می کند. همین که اشیا حرکت می کنند، مدت-زمان-سفر-نور (از پروژکتور به شیء و سپس به سنسور) تغییر می کند و به این شکل کامپیوتر از طریق تحلیل این داده های در حال تغییر، قادر به درک موقعیت اشیا و حرکت آنها می شود.

به مثال تنیس بر گردیم. برای انجام این بازی با دستگاهی که از سیستم مدت-زمان-سفر-نور استفاده می کند، دستگاه ابتدا تصویر شما را که منتظر دریافت سرویس هستید دریافت می کند. سپس با هر حرکت، موقعیت شما نسبت به اشیای ثابت پیرامون تان را تحلیل می کند. از آنجا که مدت زمان رفت و برگشت پرتوی فروسرخ به خاطر تغییر مکان شما مدام تغییر می کند، پس دستگاه با کمک سنسور فروسرخ خود تمام اطلاعات مورد نیاز برای تشخیص موقعیت تان را کسب می کند.

در بازه ای که توپ به سمت شما می آید و در حال حرکت برای ضربه زدن هستید، پروژکتور میلیون ها بار در هر ثانیه پرتوهای فروسرخ را به محیط می فرستد و سنسور فروسرخ بازتاب ها را دریافت می کند. وقتی دست شما برای ضربه زدن به جلو (سمت دوربین) حرکت می کند زمان بازتابش پرتوی فروسرخ و رسیدنش به سنسور کاهش می یابد. این کاهش توسط نرم افزار تفسیر می شود. به چه چیز؟ به حرکت روی به جلوی دست شما، و سپس به عنوان یک دستور در بازی تنیس اجرا می شود.

kinect-shadow-w640

روش دیگر برای نقشه برداری از بدن کاربر، نور ساختار یافته (structured light) نام دارد. در این رویکرد، دوباره یک پروژکتور برای ارسال پرتوهای نامرئی داریم، ولی اینبار نور ارسالی به شکل یک الگوی شبکه ای (توری مانند) است. وقتی نور توری مانند ارسالی به بدن کاربر یا سایر اشیا می رسد، دچار انحراف مسیر می شود. سنسور دستگاه این از هم پاشیدگی را تشخیص می دهد و داده ها را برای کامپیوتر می فرستد که کار اندازه گیری انحراف نور را بر عهده دارد. تفاوت های الگوی دریافتی با الگوی ثابت پرتوی ارسال شده، باز هم تفسیر می شود و در نتیجه، حرکات کاربر به دستورات کامپیوتری تبدیل می گردد.

سیستم ژست ۳ بعدی نیازی به اتکا بر یک رویکرد تکنولوژیک ندارد. برخی سیستم ها ترکیبی از راهکارهای اشاره شده را در خود جای داده اند تا حرکات کاربر را دقیق تر دنبال کنند.

 

آن سوی لنز

inside kinect

آیا کنترل دستگاه ها با ژست های ۳ بعدی، رابط کاربری آینده است؟ این بستگی به نبوغ مهندسین، کارا بودن سیستم های مختلف و رفتار کاربران دارد. دیزاین یک رابط کاربری کارا کار کوچکی نیست؛ هزاران پروژه شکست خورده وجود دارد که در زمان خودشان تصور می شد متحول کننده نحوه تعامل انسان با ماشین ها هستند. برای اینکه ژست ۳ بعدی به این سرنوشت دچار نشود باید مفید و قابل اعتماد باشد. این نیز تنها به تکنولوژی وابسته نیست، بلکه روان شناسی کاربر هم در آن دخیل است.

اگر یک ژست خاص از نظر کاربر منطقی نباشد، ممکن است اراده اش از استفاده از کل سیستم برگردد. احتمالا کسی دلش نمی خواهد برای عوض کردن شبکه تلویزیون مجبور به رقص برره ای شود! ولی چه ایرادی دارد که این امکان هم برای افراد علاقمند در نظر گرفته شود؟ قول می دهیم در باره آنها قضاوت نکنیم. اما ساختن یک سیستم خوب نه فقط به معنای بی نقص سازی تکنولوژی است بلکه باید از پیش حدس زد مردم چطور می خواهند از آن استفاده کنند. این دومی خیلی اوقات کار آسانی نیست.

آیا کنترل دستگاه ها با ژست های ۳ بعدی، رابط کاربری آینده است؟

امروزه اندک سیستم های ژست ۳ بعدی را در بازار می بینیم. مایکروسافت با کینکت که احتمالا پر استفاده ترین در بین مصرف کننده عام است ظاهر شده که با آن می توانید دستورات صوتی و ژستی را به ایکس باکس منتقل کنید. در سال ۲۰۱۲ بود که مایکروسافت اعلام کرد قصد دارد کاربردهای کینکت را در کامپیوترهای مبتنی بر ویندوز ۸ بگنجاند. و البته نباید از این واقعیت گذشت که جامعه هکرها نیز کینکت را با آغوش باز پذیرفته و پروژه های مختلفی را از اسکن ۳ بعدی گرفته تا ساخت ربات ها با استفاده از آن پیاده می کند.

اینتل نیز اعلام کرده که در نیمه دوم ۲۰۱۴، با وبکم های ۳ بعدی فاصله بین دنیای واقعی و دنیای کامپیوتر را کمتر خواهد کرد. قرار است دوربین های ۳ بعدی جایگزین وبکم های رایج امروزی شوند شوند تا قدرت تشخیص عمق و نیز شناسایی اشیا به کامپیوترها و تبلت ها اضافه شود و به این شکل استفاده از ژست های حرکتی در مقابل این دستگاه های مبتنی بر ویندوز ۸ میسر گردد. شرکت هایی نظیر ایسوس، ایسر، دل، فوجیتسو، اچ پی، و لنوو در این حرکت حضور خواهند داشت.

شرکت های مختلفی در حال توسعه سیستم های تشخیص ژست ۳ بعدی هستند. یکی از آنها SoftKinetic است که محصولاتش دارای یک مزیت مهم هستند. اگر قرار باشد از ژست های ۳ بعدی بر روی لپتاپ و تبلت و حتی تلفن هوشمند برخوردار شویم، این دستگاه ها -یا بهتر است بنویسیم سیستم تشخیص ژست به کار رفته در آنها- باید قادر به تشخیص ژست هایی باشند که در فاصله نزدیک به دوربین (و یا سنسور) اجرا می شوند.

DS311-2-w640

تکنولوژی های شرکت سافت کینتیک که شامل سنسور ۳ بعدی، دوربین ۳ بعدی، و ماژول های ۳ بعدی هستند از روش تشخیص مدت-زمان-سفر-نور استفاده می کنند. سنسور این شرکت از نوع CMOS است و به واسطه دقت بالا قادر به تشخیص انواع ژست ها که با استفاده از دست و یا حتی انگشت ها اجرا می شود. مشخصات سه نوع محصول (سنسورهای عمق سنج، دوربین های عمق سنج، و ماژول های عمق سنج) این شرکت را در صفحات مربوطه که سایت سافت کینتیک میزبان آنها است مطالعه کنید.

یکی دیگر از شرکت ها که محصولی جذاب در زمینه تشخیص ژست های ۳ بعدی تولید کرده، LeapMotion است. محصول کوچک و زیبای این شرکت با نام لیپ موشن کنترلر (Leap Motion Controller) دارای ابعاد ۸ در ۳ در ۱.۲۷ سانتی متر است و تنها ۴۵ گرم وزن دارد.

the-leap-motion-control

برای استفاده از آن کافی است ابتدا با کابل مخصوص به کامپیوتری دارای حداقل ۲ گیگابایت رم متصلش کنید تا نرم افزار مناسب سیستم عامل (ویندوز ۷، ویندوز ۸ یا مک او اس ۱۰) بر روی دستگاه نصب شود. سپس با قرار دادن کنترلر در مقابل خود، قادر به استفاده از ژست های دستی و انگشتی شوید. دستورات قابل انجام با این کنترلر عبارت هستند از:

  • مرور وب و مقالات
  • مشاهده گالری عکس
  • پخش موسیقی
  • انجام نقاشی و طراحی و دیزاین با انگشت یا قلم واقعی
  • انجام بازی های کامپیوتری
  • کار با اشیایی که توسط نرم افزارهای دیزاین ۳ بعدی خلق شده اند و تغییر مشخصات و جا به جایی آنها،
  • و حتی نواختن سازهای کامپیوتری.

لیپ موشن کنترلر با قیمت ۸۰ دلار فروخته می شود که برای گجتی اینقدر پیشرفته، رقم مناسبی است.

 

سنسورها را کنار بگذار

myo01-w640

تا اینجا هر آنچه نوشتیم و خواندید درباره سیستم های مبتنی بر دوربین و سنسورهای پرتوسنج بود. ولی نوآوری ها در این زمینه تمامی ندارد و وارد فاز تازه ای شده که در اینجا فقط به یکی از موارد می پردازیم. گجتی خارق العاده به نام Myo از شرکت ThalmicLabs.

مایو یک نوع ساعدبند مخصوص ژست های ۳ بعدی است و همان طور که از نامش بر می آید، به دور عضلات ساعد بسته می شود. مایو دارای چند سنسور است؛ شتابسنج (accelerometer)، گردش نما (gyroscope) و مغناطیس سنج (magnetometer). با کمک اینها نه فقط می تواند حرکت و چرخش کل دست شما را تشخیص دهد بلکه قادر است تحرکات زیر پوستی در حد انقباض و انبساط عضلانی را هم بفهمد و در نتیجه بتواند گره کردن مشت، بشکن زدن، چرخش مچ، چرخش دست از بازو و … را تشخیص دهد و به دستورات کامپیوتری ترجمه نماید.

تصور کنید که در یک بازی جنگی دستتان را طوری بالا بیاورید که انگار اسلحه ای را به دست گرفته اید، و بعد ادای چکاندن ماشه را هم در بیاورید و کاراکتر شما در محیط بازی، شروع به شلیک کند؛ تمام اینها با سرعت و واکنش پذیری فوق العاده بالا.

این هم جادوی مهندسین ثالمیک لبس که تشخیص ژست های ۳ بعدی را بدون سنسورهای پرتوسنج میسر کرده اند و به نظر می رسد با ارائه API برای دستگاه های مختلف، از کامپیوتر و کنسول بازی گرفته تا تبلت، تلفن هوشمند، عینک هوشمند، و سایر گجت ها، گستره ای به مراتب بیشتر از رقبا را پوشش دهند. بدون شک بزرگترین مزیت این گجت پوشیدنی، امکان همراه داشتن همیشگی اش در خانه، محیط کار و محیط های خارجی است.


در آینده ژست های ۳ بعدی نیز به راه های رایج امروزی برای دستور دادن به کامپیوترها و حتی تولید و دستکاری محتوا اضافه خواهند شد. اینکه چنین راهکارهایی جای پای محکمی برای خود خواهند ساخت و دوام خواهند آورد، موکول به آینده است. ولی چشم ها و سنسورهای لازم برای توسعه راهکارهای ژست ۳ بعدی در اکثر دستگاه های موبایل امروزی (جریان اصلی بازار مصرف) وجود دارد و این یک مزیت است.

تصور کنید که دیگر بی نیاز از کیبورد فیزیکی، بتوانید روی سطح میز تایپ کنید. یا بی نیاز از دسته های بازی نقش کاراکترهای گیم پلی را بازی کنید. این فناوری در ترکیب با عینک های واقعیت مجازی، تلویزیون های ۳ بعدی، پخش کننده های هولوگرام و سایر نوآوری ها، می توانند ظرفیت های خفته خود را بیدارتر کند.

بزرگترین سوال این است که آیا ژست ۳ بعدی می تواند روش های تعامل با رابط کاربری گرافیکی، نظیر تایپ، کار با ماوس و لمس نمایشگر را رد کند و بالاتر از آنها بایستد یا خیر؟ ولی حداقل این پتانسیل را دارا است که با مهندسی و تحقیق درست، در کنار آن روش ها قرار بگیرد و راه های تعامل با دستگاه های دیجیتال را تکمیل کند.

مطالب مرتبط

پتنت تازه اپل و تشخیص «اسکلت» دیجیتالی شما از طریق دوربین

اپل به تازگی پتنتی را برای یک محصول نرم افزاری ثبت کرده که با نگاه کردن به آن از طریق سخت افزاری مشابه به کینکت مایکروسافت، اطلاعاتی را در مورد ساختار اسکلت بدن ارائه می دهد. کینکت مایکروسافت نوعی سخت افزار جانبی برای اکس باکس است که از دوربین برای دنبال کردن حرکت افراد در داخل... ادامه مطلب

مایکروسافت از دوربین Azure Kinect برای مشتریان تجاری پرده برداشت

همانطور که قطعا به خاطر دارید، کینکت به عنوان یک وسیله جانبی جهت کنترل بازی‌ها با دست و بدن برای کنسول ایکس باکس 360 معرفی شد. اگر چه این وسیله جانبی شروع موفقیت‌‌آمیزی داشت، اما در ادامه کار خود روی کنسول جدید مایکروسافت یعنی ایکس باکس وان، به مشکلاتی از قبیل کمبود بازی برخورد و... ادامه مطلب

RoomAlive هر اتاقی را تبدیل به یک بازی اکس باکس می کند

زمانی که مایکروسافت اولین بار از پروژه IllumiRoom در نمایش CES سال گذشته پرده برداشت، توجه زیادی را به سوی نسل بعدی اکس باکس جلب کرد. آن زمان ویدیویی منتشر شد که یک سیستم پروژکتور به اکس باکس متصل بود و حاشیه های بازی که در قالب تلویزیون نمی گنجید، به وسیله آن دستگاه در... ادامه مطلب

از رئالیسم جادویی تا آکیلس ریفت؛ 25 شخصیت تاثیرگذار در توسعه واقعیت مجازی

«من در یکی از اتاق های بازجویی گوانتانامو نشسته ام، مثل یک سگ نفس نفس می زنم، در وضعیتی زجرآور چمباتمه زده ام، ماهیچه ها از درد فریاد می کشند. در دنیایی خیالی شناور هستم، درختان شفاف که ریشه در فضایی متغیر دوانده اند به دور من، نور کرم های شب تاب از مقابل دیدگانم... ادامه مطلب

استفاده از دست ها در محیط واقعیت مجازی، به لطف سیستم جدید لیپ موشن

سازندگان کنترلرهای حرکتی Leap Motion به تازگی از پلتفرم موبایلی با همین نام رونمایی کرده اند که می تواند به تحول تکنولوژی واقعیت مجازی در حوزه موبایل منجر گردد. کمپانی مورد اشاره اخیراً ترکیبی از سخت افزارها و نرم افزارها را برای دستگاه های واقعیت مجازی و واقعیت افزوده ی بدون سیم و مبتنی بر... ادامه مطلب

محققین دانشگاه MIT از کینکت برای عکاسی عاری از بازتاب نور استفاده می کنند

اگر بخواهید از پشت شیشه صحنه ای را با دوربین شکار کنید، احتمال زیادی وجود دارد که بازتاب نور تصویر ثبت شده را خراب کند و این همان مشکلی است که گروه موسوم به Camera Culture Group در Media Lab دانشگاه MIT تلاش دارند راه حلی برای آن ابداع نمایند. گروه محققین برای این منظور دستگاهی توسعه... ادامه مطلب

نظرات ۳۰

وارد شوید

برای گفتگو با کاربران، وارد حساب کاربری خود شوید.

ورود
x