Chez Microsoft Research, on travail sur différentes thématiques liés au interfaces humains machines. Je vous avais parlé il y a quelques mois dans ce billet de l’usage de la peau comme surface d’interaction, en ce début d’automne, ce sont deux nouveaux projets dévoilés par le centre de recherche de la firme de Redmond : OmniTouch et PocketTouch Les deux projet prennent en compte la notion de mobilité.

 

Le premier projet est basé sur la vision par ordinateur (computer vision) consiste à utiliser un vidéoprojecteur affichant une image qui est analysée par un capteur qui détecte les mouvements de l’utilisateur. C’est une interprétation du projet 6th Sens en utilisant le savoir faire de la Kinect pour obtenir une information de profondeur et savoir si le doigt touche ou non la surface d’affichage.

 
Le second projet Utilise un capteur tactile capacitif pour détecter des gestuelles à travers un textile. Le principe étant de piloter des fonctionnalités d’un mobile alors que celui ci est dans sa poche.

La calibration est différente selon le type de tissus utilisés, mais l’application pourrait donner des pistes intéressantes.

Voir la démo en vidéo

Plus d’infos sur le site de Chris Harrison (également à l’origine du projet  SkinPut)
• OmniTouch
PocketTouch