Управлять смартфоном теперь можно, нажимая пальцами на ладонь, как если бы она была экраном. Об остальном позаботятся специальные камеры и программное обеспечение.
Чтобы выяснить, насколько хорошо пользователи Appleориентируются в своих iPhone, Шон Густафсон и его коллеги из Потсдамскогоуниверситета пригласили 12 добровольцев. В итоге 68% участников правильнорасположили большинство приложений на участках ладони, которые соответствуюттой или иной клавише на тачскрине. При работе с популярными приложениямиточность достигала 80%, пишет Компьюлента.
Воодушевившись такими результатами, исследователиприспособили систему распознавания движений, состоящую из видеокамер и сенсоровдля отслеживания тычков пальца в ладонь. Похожая технология используется вMicrosoft Kinect.
В экспериментах применялось довольно громоздкое устройство,размещаемое на голове. Но рано или поздно, как надеются авторы, систему можнобудет встроить в пуговицу на одежде или замаскировать под аксессуар, апользователи, становясь все искушеннее в "слепом" управлении "Айфоном", смогутвыполнять более сложные задачи.
Главным недостатком предложенного способа взаимодействия сгаджетом является невозможность полной автономии: для телефонного разговоранужно, чтобы iPhone был рядом с хозяином. Так что разработка германскихспециалистов является, по сути, разновидностью handsfree.