Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Rock & Rails : manipulations spatiales et gestes naturels sur les écrans tactiles
Un projet mené par un chercheur de Microsoft

Le , par Idelways

0PARTAGES

1  0 
Si l’adoption en masse des interfaces tactiles et du multi-touch a entièrement remodelé le marché des téléphones mobiles, elles n'ont pas encore réussi à changer, d'une manière fondamentale, l'interaction des utilisateurs avec les machines.

Les capteurs de ces écrans et les interfaces utilisateurs des applications ne permettent, finalement, qu’appuyer et imiter les gestes basiques de l'indétrônable souris, encore très présente, malgré les nombreuses prédictions de sa disparition.

En ce sens, des chercheurs de Microsoft tentent d'intégrer à ces surfaces plus de gestes naturels qui proviennent des manipulations spatiales de la vie de tous les jours.

Dans le cadre du projet Rock & Rails, Hrvoje Benko implémente de nouvelles méthodes de reconnaissance des formes tracées et formées par les mains de l’utilisateur.

Trois gestes sont pour l'instant supportés : former un trait avec le bord de la main pour créer une sorte de barrière qui peut être utilisée pour redimensionner ou déplacer plusieurs objets en même temps.

L'utilisateur peut aussi utiliser son poing pour retenir un objet ou courber sa main posée sur l'écran pour créer un angle de rotation.



Les résultats de ces recherches feront l'objet d'une publication dans une revue de référence plus tard cette année.

L'unique démonstration accessible sur le site du projet utilise la « table-PC » Microsoft Surface qui repose sur des méthodes de détections différentes et intègre des capteurs nettement plus sensibles que ceux des smartphones et tablettes actuels.

Mais ce n'est probablement qu'une question de temps.

Source : Microsoft Research

Et vous ?

Qu'en pensez-vous ?
Quelles autres manipulations spatiales souhaitez-vous voir les écrans tactiles supporter ?

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de air-dex
Membre expert https://www.developpez.com
Le 13/05/2011 à 13:03
Travaux intéressants mais j'y trouve quelque chose de bizarre. C'est très surprenant de la part de MS qu'ils ne proposent pas de solutions à base de Kinect. Ils y viendront peut-être.
0  0 
Avatar de ymoreau
Membre émérite https://www.developpez.com
Le 16/05/2011 à 16:49
Je pense que la reconnaissance de Kinect nécessite de l'espace, ça n'est pas tout à fait le même contexte d'utilisation qu'une tablette ou un téléphone tactile.

Je trouve ça vraiment bien d'ajouter des possibilités au tactile, se limiter au toucher/glisser était un peu frustrant. Surtout qu'avec la souris on a ajouté des accessoires (plusieurs boutons, molettes) qui donne accès à pas mal de raccourcis, j'ai tendance à me sentir limité avec du tactile.
0  0