• Le retour d’effort : en faisant vibrer tout le terminal pour symboliser la pression d’une partie de l’écran. C’est facile à mettre en œuvre, ça marche assez bien. Mais c’est limité à une pression à la fois (pas de multitouch) et c’est un retour très binaire (qu’on effleure ou qu’on frappe son écran, seule la durée de vibration peut varier, pas vraiment son intensité. )
• La substitution sensorielle : en utilisant l’ouïe ou la vision de l’utilisateur à la place de retour tactile on peut arriver à tes effets plus localisés. On utilise alors des sons, ou des effets visuels pour indiquer que la touche est « pressée ».
Pour le son, on utilise essentiellement des « clics » qui rappellent l’usage d’un bon vieux clavier ou d’une souris
Pour le visuels, les effets courant sont
- l’illumination : un halo lumineux indique l’activation de la touche.
- l’ombrages : pour pousser la métaphore de l’enfoncement.
- la délocalisation de la touche (mini pop up) qui permet d’afficher la touche pressée alors qu’elle est occultée par le doigt de l’utilisateur (pour une fois un sort de la métaphore pour entrer dans l’idiomatique http://www.multimedialab.be/doc/alan_cooper.htm)
La société Finlandaise Senseg a mis au point un dispositif de retour tactile qui ne génère pas de vibrations mécaniques et qui peut se coupler à une interface multitouch + écran.
L’avantage de se passer des vibrations mécanique, c’est de pouvoir localiser l’effet (on ne fait plus vibrer la totalité de l’appareil) et d’éviter la perturbation sonore crée par un moteur.
Le dispositif utilise des minuscules céllules nommées tixel (pour « tactile pixels ») qui génères des champs électriques. L’intensité de chaque tixel est contrôlable, ainsi à l’instar des pixels qui génèrent une image, les tixel génèrent une texture dynamique que l’on ressent passant le doigt sur la surface.
Quand on examine de plus près la description que fait Senseg de son produit on peut lire que les champs magnétiques « s’étendent sur plusieurs millimètres au-dessus de surface de l’appareil ». Ce qui offre la possibilité de donner des sensations tactiles lors du survol d’une zone.
Couplez cette technologie avec une détection de la présence du doigt avant le contact avec la surface de l’écran ( cf brevet Apple cité dans ce billet ), et vous obtiendrez la prochaine grande évolution des interfaces tactile multitouch.
Si vous passez à Helsinki ou Tokyo, vous pouvez contacter Senseg pour tester le dispositif.
Source : springwise
]]>
L’équipe du Human Computer Interaction Institute a développé un bracelet qui s’enfile comme un tensiomètre et capte ces ondes de choc. En analysant les réactions aux tapotements sur la peau, il est possible d’utiliser le bras comme interface d’entrée pour le contrôle de machines. Coupler cette interface naturelle avec un (pico)projecteur permet de transformer sa peau en écran tactile.
La miniaturisation de l’électronique pourra trouver un fort intérêt à limiter la taille des interfaces d’entrée et utiliser des surfaces existante comme “input”, une table, un mur… c’est d’ailleur l’objet de cet autre projet de la recherche Microsoft : Light Space
]]>Le projet au nom de code « WUW » a été rebaptisé « Sixthsense » pour sa sortie du labo. Cette fois, l’utilisateur n’est pas dans son bureau, il est invité à bénéficier des données disponibles sur internet dans leur quotidien, et ce, sans périphérique spécifique.
Le concept est presque simple, il allie une caméra visualisant à peu près la même chose que son porteur, un (nano) vidéoprojecteur et quatre marqueurs de quatre couleurs pour pouce et index.
La vraie innovation est de proposer une nouvelle alternative aux deux grandes façons de faire de la réalité augmentée :
• Porter des lunettes spécifiques qui sont en fait des écrans semi-transparents où sont affichées des formes ou informations. Cette (vielle) méthode ayant fâcheusement tendance à créer des maux de tête à force de demander aux yeux de faire la netteté à deux distance à la fois (le verre des lunettes très près des yeux et l’environnement plus éloigné).
• voir l’environnement réel à travers un écran qui diffuse la vidéo prise par la caméra, à laquelle s’ajoute les éléments virtuels. (Rappelez-vous du projet MARA de Nokia ou plus récemment du portage de l’API AR toolkit sur iPhone).
Cette fois, on ajoute des infos sur les objets de l’environnement eux-même ; bien sûr il faut des surfaces de projections adaptées (il vaut mieux avoir un ami avec un T-shirt blanc).
Les fonctions développées sont relativement classiques (celles que les adeptes de la réalité augmentée imaginent depuis longtemps) avec en plus des idées empruntées au monde des périphériques mobiles (avoir tous types d’informations partout tous le temps.)
Une petite vidéo vaut mieux qu’une grande description :
Plus d’informations : http://www.pranavmistry.com/projects/sixthsense/index.htm
]]>
Avatar féminin ou masculin – en démonstration vidéo ici
L’application comporte plusieurs modules mis bout a bout pour produite l’effet souhaité : Un module de reconnaissance vocale que transforme la voix en texte, un module qui transforme le texte en signes et un module qui fait effectuer ces signes à un avatar 3D. Certaines personnes commentant ce communiqué soulignent, que le visage non expressif du personnage doit affecter la compréhension.
Cette idée de traducteur virtuel automatique répond au chercheur Mexicain Jose Hernandez-Rebollar de la George Washington University. Il avait crée en 2000 un dispositif, l’ acceleglove, qui permette de traduire à travers d’un synthétiseur vocal ce qu’une personne exprimait en langage des signes.
Sources : http://www-03.ibm.com/press/us/en/pressrelease/22316.wss
Plus d’infos sur l’ acceleglove : www.seas.gwu.edu/~gogo/papers/hernandez_SIGGRAPH_2002.pdf
]]>L’équipe de recherche de Nokia en Finlande ayant mis sur pied le projet MARA (Mobile Augmented Reality Applications) dont je vous parlais fin 2006 a cessé de travailler sur ces technologies. La firme mondiale a passé le relais à une équipe du nouveau centre de recherche Nokia basé à Palo Alto aux Etats Unis. L’équipe de développement des applications de réalité Augmenté compte Kari Pulli et Radek Grzeszczuk. Ces deux noms indiquent le tournant qu’est en train de prendre Nokia pour ses applications mobiles futur : ces chercheurs sont des spécialistes du rendu 3D temps réel et de la reconstruction géométrique à partir de texture.
Ces compétences mis en commun au service de la réalité augmentée embarquée nous permet d’imaginer une jolie suite au projet MARA. Pour l’exprimer avec des mots simples, disons que les téléphones ne se contenteront pas d’afficher des informations textuelles par-dessus une vidéo, mais seront, par exemple, capables d’afficher une modélisation 3D de monument ou encore d’analyser ce qui est vu par la caméra du téléphone et le transformer en objet 3D (scanner 3D de poche).
En extrapolant, ce peut être le début du chat via avatar 3D interposé, le décollage jeux pervasifs (mise en situation réelle des joueurs), les VMS (virtual messaging service) ou l’ont enverra des messages accompagnés d’objets 3d…
Alors, à quand les mobiles à double caméra et les écrans reliefs. Pas forcément dans si longtemps, le futur commence dès demain.
Source : Markus Kähäri, project manager of MARA Project
]]>Les outils nécessaires sont un GPS, un accéléromètre et un Gyroscope intégrés. Après, c’est une base de donnée de géolocalisation qui fait le reste, proposant à la façon de liens hypertexte des info sur les bâtiments reconnus.
La fonction « friend finder » permet même de retrouver un ami qui utilise le même système. En extrapolant on pourrait envisager de lire le CV ou accéder au blog d’une personne que l’on croise dans la rue…
]]>
Tremblez de plaisir braves gents, voici le résultat du labo Multi-Touch Interaction Research , un écran tactile qui reconnais la pression simultanée des 10 doigts et sait reconnaître un index d’un majeur… Encore une fois je vous conseille la vidéo de démo, c’est bluffant.
Reste à savoir quand on pourra utiliser ce genre de technologie et imaginer tout ce que l’on peut faire avec…
]]>