Ergonomie & IHM
L’ergonomie dans le milieu de l’informatique
L’avenir des IHM : surface tactile ou analyse vidéo ?
19/10/11
Chez Microsoft Research, on travail sur différentes thématiques liés au interfaces humains machines. Je vous avais parlé il y a quelques mois dans ce billet de l’usage de la peau comme surface d’interaction, en ce début d’automne, ce sont deux nouveaux projets dévoilés par le centre de recherche de la firme de Redmond : OmniTouch et PocketTouch Les deux projet prennent en compte la notion de mobilité.
Le premier projet est basé sur la vision par ordinateur (computer vision) consiste à utiliser un vidéoprojecteur affichant une image qui est analysée par un capteur qui détecte les mouvements de l’utilisateur. C’est une interprétation du projet 6th Sens en utilisant le savoir faire de la Kinect pour obtenir une information de profondeur et savoir si le doigt touche ou non la surface d’affichage.
Le second projet Utilise un capteur tactile capacitif pour détecter des gestuelles à travers un textile. Le principe étant de piloter des fonctionnalités d’un mobile alors que celui ci est dans sa poche.
La calibration est différente selon le type de tissus utilisés, mais l’application pourrait donner des pistes intéressantes.
Plus d’infos sur le site de Chris Harrison (également à l’origine du projet SkinPut)
• OmniTouch
• PocketTouch
Retour d’effort sur écran tactile : de la vibration au tixel
20/07/11
свети атанасUn utilisateur de tablette, smartphone ou autre terminal mobile à écran tactile a besoin de savoir si sa machine a bien comprit qu’il vient d’appuyer sur un bouton virtuel affiché à l’écran. Les concepteurs d’interfaces utilisent principalement deux méthodes (cumulables) pour donner ce retour d’information (feedback) :
• Le retour d’effort : en faisant vibrer tout le terminal pour symboliser la pression d’une partie de l’écran. C’est facile à mettre en œuvre, ça marche assez bien. Mais c’est limité à une pression à la fois (pas de multitouch) et c’est un retour très binaire (qu’on effleure ou qu’on frappe son écran, seule la durée de vibration peut varier, pas vraiment son intensité. )
• La substitution sensorielle : en utilisant l’ouïe ou la vision de l’utilisateur à la place de retour tactile on peut arriver à tes effets plus localisés. On utilise alors des sons, ou des effets visuels pour indiquer que la touche est « pressée ».
Pour le son, on utilise essentiellement des « clics » qui rappellent l’usage d’un bon vieux clavier ou d’une souris
Pour le visuels, les effets courant sont
- l’illumination : un halo lumineux indique l’activation de la touche.
- l’ombrages : pour pousser la métaphore de l’enfoncement.
- la délocalisation de la touche (mini pop up) qui permet d’afficher la touche pressée alors qu’elle est occultée par le doigt de l’utilisateur (pour une fois un sort de la métaphore pour entrer dans l’idiomatique http://www.multimedialab.be/doc/alan_cooper.htm)
La société Finlandaise Senseg a mis au point un dispositif de retour tactile qui ne génère pas de vibrations mécaniques et qui peut se coupler à une interface multitouch + écran.
L’avantage de se passer des vibrations mécanique, c’est de pouvoir localiser l’effet (on ne fait plus vibrer la totalité de l’appareil) et d’éviter la perturbation sonore crée par un moteur.
Le dispositif utilise des minuscules céllules nommées tixel (pour « tactile pixels ») qui génères des champs électriques. L’intensité de chaque tixel est contrôlable, ainsi à l’instar des pixels qui génèrent une image, les tixel génèrent une texture dynamique que l’on ressent passant le doigt sur la surface.
Quand on examine de plus près la description que fait Senseg de son produit on peut lire que les champs magnétiques « s’étendent sur plusieurs millimètres au-dessus de surface de l’appareil ». Ce qui offre la possibilité de donner des sensations tactiles lors du survol d’une zone.
Couplez cette technologie avec une détection de la présence du doigt avant le contact avec la surface de l’écran ( cf brevet Apple cité dans ce billet ), et vous obtiendrez la prochaine grande évolution des interfaces tactile multitouch.
Si vous passez à Helsinki ou Tokyo, vous pouvez contacter Senseg pour tester le dispositif.
Source : springwise
iHold-up : Multitouch et Brevet Apple
24/06/11
Un petit mot pour relayer une information Importante :
Le 21 juin 2011, l’United States Patent (qui se charge de l’attribution des brevets sur le sol américain) a validé un brevet déposé par Apple lors de la sortie de l’iPhone (2007). Ce brevet concerne “une méthode implémentée par ordinateur, pour l’utiliser conjointement avec un appareil portable multifonctions équipé d’un écran tactile, [qui] comprend l’affichage d’une portion du contenu d’une page, y compris un cadre qui affiche une portion du contenu du cadre et qui inclus aussi d’autres contenus de la page, sur l’écran tactile. Une traduction d’un geste à N-doigt (un ou plusieurs) est détecté sur ou près de l’écran tactile”.
En clair : Apple a déposé (et obtenu) un brevet qui concerne la possibilité d’interagir en multitouch dans une frame sur une page tout en pouvant interagir avec le page hors frame.
C’est donc le principe d’usage principal de la gestuelle multitouch appliqué à un périphérique mobile est désormais soumis à un droit de licence exclusif pour Apple. Un droit qui devrait s’appliquer à tous les autres fabriquant de téléphones qui utilisent les mêmes procédés. Si l’on extrapole, les fabricants d’appareils photo ou autres objets utilisant un écran tactile et des gestes de navigation devenus standard peuvent être également concernés.
De mon point de vue, ce coup de théâtre que l’on attendait plus va faire pleuvoir les proces et renforcer la position dominante d’Apple sur ce secteur.
Source 1
Source 2
Source 3
A suivre …
Utiliser la peau comme interface d’interaction
10/03/11
Le projet “Skinput” dévoilé par Microsoft Research vise à faire de notre bras une véritable télécommande numérique. Le principe est simple : quand on le tapote son avant-bras avec un doigt, il subit une mini onde de choc qui se propage le long du bras.
L’équipe du Human Computer Interaction Institute a développé un bracelet qui s’enfile comme un tensiomètre et capte ces ondes de choc. En analysant les réactions aux tapotements sur la peau, il est possible d’utiliser le bras comme interface d’entrée pour le contrôle de machines. Coupler cette interface naturelle avec un (pico)projecteur permet de transformer sa peau en écran tactile.
La miniaturisation de l’électronique pourra trouver un fort intérêt à limiter la taille des interfaces d’entrée et utiliser des surfaces existante comme “input”, une table, un mur… c’est d’ailleur l’objet de cet autre projet de la recherche Microsoft : Light Space
Keep in touch (ou l’avenir du tactile)
10/02/11
Il y a quelques années que je vous parlais ici même de l’émergence de projets de recherche utilisant le doigt sur une surface plane comme interface homme machine. Des travaux tactiles de Jeff Han (Multi-Touch Interaction dont je vous parlais ici) à ceux sans contact de Andy Wilson (Touch Light, présenté à Laval Virtual en 2006) en passant par le prototype Tactapad (dont je vous parlais ici).
Toutes ces réflexions ont porté leurs fruits, des produits grand public, Apple et Microsoft on choisit des échèles différentes, la version de poche pour l’iPhone, la version mobilier pour table tactile (et tangible) Surface. Deux bons exemples des usages actuels : Le tactile localisé. C’est-à-dire que l’on touche l’écran pour interagir (comme les travaux de Jeff Han cités ci-dessus). C’est un concept ergonomique très simple pour nos petits cerveaux, mais qui pose un problème pour le généraliser à un ordinateur personnel : nos doigts masquent la partie de l’écran que l’on touche.
Pour des travaux de précisions, cela devient vite un frein (j’imagine difficilement travailler sur le d’illustration vectorielle sur un détourage photo ou sur un tableur chargé de mini-cellules sans un pointeur ultra-précis. La plus grosse évolution à attendre pour le tactile localisé est la détection de la présence du doigt avant le contact avec la surface (comme les travaux d’Andy Wilson cités ci-dessus). Cette évolution arrivera dans les 2 ans à venir d’après moi, Apple est déjà sur le coup avec le dépôt de son brevet # 20110007021.
Pour conclure sur ce point, en terme d’ergonomie, ce type d’interface est adapté aux périphériques mobiles (que l’on a en main ou sur ses genoux) , pas à un écran vertical (trop de fatigue musculaire en cas d’utilisation longue).
L’avenir de ce type d’IHM pour nos bons vieux postes de travail est donc ailleurs, à mon avis sur le tactile déporté : c’est-à-dire que la surface que l’on touche, caresse et tapote n’est pas l’écran. Actuellement c’est nos bons vieux trackpads qui se chargent de ça. Intégrés aux ordinateurs portables, ils colonisent maintenant nos postes de travail avec des versions de bureau. On voit même émerger des produits hybrides regroupant des fonctions de tablette graphique et trackpad (comme la gamme Bamboo Touch chez Wacom).
Alors, me direz-vous, si cela existe, en quoi est-ce le futur ? Et bien, vous répondrai-je, parce que la limite actuelle est que ces dispositifs permettent de contrôler un unique pointeur, on est loin du multitouch. Donc, soyons précis, l’avenir est le tactile déporté multitouch (comme le Tactapad cité ci-dessus). Et là c’est la course à l’innovation, de nouveau Apple est en course avec du dépôt de brevet dans ce domaine. L’élargissement du trackpad sur les portables est une piste sérieuse, ça laisse la place pour 2 mains. (Voir le brevet )
Qui dit nouvelle interface d’entrée (sous les doigts) dit nouvelle interface graphique (sur l’écran) pour cela les travaux du designer Robert Clayton Miller de l’agence de conception Web Tonic Blue [publication en 2009] apportent de bonnes idées. Je vous laisse découvrir cette vidéo très bien faite :
Attention, clavier mouvant
4/01/11
Pour ceux (de plus en plus nombreux) qui passent un temps (de plus en plus important) devant un ordinateur, sachez que l’ergonomie de votre plan de travail n’ès pas à prendre à la légère.
Je vous ai parlé de différentes solutions efficaces comme le tapis de souris Matoo ou l’indispensable souris verticale Evoluent. J’aurais pu également citer le très confortable clavier ergonomique de Microsoft
Voici une nouveauté qui permet de continuer à réfléchir aux évolutions de nos périphériques traditionnels : le clavier Engage : automatiquement ergonomique.
Le paradigme de départ est simple : l’inconfort ou la douleur d’un utilisateur de poste informatique est essentiellement lié à la position statique et aux mouvements répétitifs sur les touches ou boutons. Donc une solution est proposée par ce nouveau produit de la société Smartfish : il suffit de faire varier la position du clavier au fur et a mesure de son utilisation pour que les mouvements de l’utilisateur soient variés. Qui dit faire varier, dis motorisation du clavier. Il est ainsi capable de s’ouvrir se refermer ou se soulever automatiquement.
Je serai intéressé de savoir si c’est réellement en fonction de la frappe ou un mouvement perpétuel…
Plus d’info : Engage-Keyboard
Au passage, passez-donc voir leur souris Whirl-Mouse, un concept mouvant intéressant.
Le réel augmenté d’un sixième sens numérique
25/03/09
Pranav Mistry, assistant de recherche du Groupe des interfaces fluides du Massachusetts Institute of Technology (MIT) a encore fait sensation avec son nouveau projet présenté par sa directrice de labo Pattie Maes, lors de la conférence TED de PalmSprings en février.
Pour mémoire, Pranav Mistry était l’auteur des post-it nouvelle génération nommés « Quickies » qui ont trouvé un large écho sur le web l’an passé.
Le projet au nom de code « WUW » a été rebaptisé « Sixthsense » pour sa sortie du labo. Cette fois, l’utilisateur n’est pas dans son bureau, il est invité à bénéficier des données disponibles sur internet dans leur quotidien, et ce, sans périphérique spécifique.
Le concept est presque simple, il allie une caméra visualisant à peu près la même chose que son porteur, un (nano) vidéoprojecteur et quatre marqueurs de quatre couleurs pour pouce et index.
La vraie innovation est de proposer une nouvelle alternative aux deux grandes façons de faire de la réalité augmentée :
• Porter des lunettes spécifiques qui sont en fait des écrans semi-transparents où sont affichées des formes ou informations. Cette (vielle) méthode ayant fâcheusement tendance à créer des maux de tête à force de demander aux yeux de faire la netteté à deux distance à la fois (le verre des lunettes très près des yeux et l’environnement plus éloigné).
• voir l’environnement réel à travers un écran qui diffuse la vidéo prise par la caméra, à laquelle s’ajoute les éléments virtuels. (Rappelez-vous du projet MARA de Nokia ou plus récemment du portage de l’API AR toolkit sur iPhone).
Cette fois, on ajoute des infos sur les objets de l’environnement eux-même ; bien sûr il faut des surfaces de projections adaptées (il vaut mieux avoir un ami avec un T-shirt blanc).
Les fonctions développées sont relativement classiques (celles que les adeptes de la réalité augmentée imaginent depuis longtemps) avec en plus des idées empruntées au monde des périphériques mobiles (avoir tous types d’informations partout tous le temps.)
Une petite vidéo vaut mieux qu’une grande description :
Plus d’informations : http://www.pranavmistry.com/projects/sixthsense/index.htm
Sisi vous le dis avec ses mains.
6/11/07
L’université d’East Anglia (royaume unis) et IBM ont communiqué en septembre dernier sur le projet qu’ils ont développé en commun. L’aboutissement de ce projet est une application qui traduit les paroles en langages des signes et qu a pour nom de code SiSi pour « Say It Sign It ».
Avatar féminin ou masculin – en démonstration vidéo ici
L’application comporte plusieurs modules mis bout a bout pour produite l’effet souhaité : Un module de reconnaissance vocale que transforme la voix en texte, un module qui transforme le texte en signes et un module qui fait effectuer ces signes à un avatar 3D. Certaines personnes commentant ce communiqué soulignent, que le visage non expressif du personnage doit affecter la compréhension.
Cette idée de traducteur virtuel automatique répond au chercheur Mexicain Jose Hernandez-Rebollar de la George Washington University. Il avait crée en 2000 un dispositif, l’ acceleglove, qui permette de traduire à travers d’un synthétiseur vocal ce qu’une personne exprimait en langage des signes.
Sources : http://www-03.ibm.com/press/us/en/pressrelease/22316.wss
Plus d’infos sur l’ acceleglove : www.seas.gwu.edu/~gogo/papers/hernandez_SIGGRAPH_2002.pdf
La Wii fait tourner la tête aux autres consoles
30/09/07
Depuis l’arrivée de la petite console blanche de Nintendo, les gyroscopes ont la cote. Nous nous souvenons de Sony qui, changeant ses plans à la dernière minute, inséra un gyro dans ses manettes de PS3.Voici une petite nouvelle, un gyroscope peux maintenant être ajouté aux PSP. Aucuns jeux « officiels » ne l’utilise, mais on imagine que les homebrews, ces sympathiques logiciels fais maison, sauront en exploiter les bienfaits.
dispo chez neoflash
Le plus gros iPhone du monde est signé Microsoft
1/06/07
Chère lecteur, pardonne ce titre pour le moins irrévérencieux qui laisse supposé qu’une fois de plus, Microsoft propose un produit incroyablement innovant qui existe déjà. Oui, Microsoft a sorti de façon officielle ce produit qui est bien plus proche de celui de Multi-Touch Interaction Research ( que je vous présentait en mars 2006 ) Que du prototype Microsoft Research présentés à Laval Virtual en 2006 (qui était un écran vertical sans contact).
Le produit lui même semble tout à fait intéressant, c’est une interface tangible de type “table” qui permet d’interagir avec différentes fonctions à l’aide de ses doigts. L’interface et ses principes d’interaction étant fortement inspirés de ce qui ce que des dizaines de laboratoires et de créatifs du monde entier proposent déjà depuis 2 ans, cela semble tout à fait réussi.
Pour une fois, aucun bouton “start” avec le logo Windows ne semble faire ingérence dans ce bel objet, enfin une innovation de la part de Microsoft.
Pour conclure ce billet engagé, je remercie Microsoft d’avoir mis la main au portefeuille, élaboré une jolie campagne de communication et envoyé Bill Gates lui montrer le bébé aux Télés, cette initiative permet de révéler ces technologies au grand public et à lancer l’industrie des périphériques tactiles grands formats, c’est le point positif.
Il est grand temps de se racheter des doigts.
16/04/07
La console blanche de Microsoft s’offre un nouveau périphérique d’entrée le « Text Input Device » obligatoire pour profiter pleinement de la fonction « Live Messenger » qui débarque sur la X Box.
Ce qui est intéressant dans cette nouveauté est que ce clavier n’est pas un périphérique autonome, il se clip sur une manette standard pour donner cette grosse manette à tout faire.
Je ne sais pas si les ergonomes de Reymont ont travaillé avec les designers sur ce produit; autant la manette de la 360 est très agréable à prendre en main, autant je ne suis pas sur que des pouces humains soit réellement à l’aise avec ce périphérique hybride.
Cet événement confirme la place centrale désirée pour une console de jeux dans les salons branchés, l’idée est de les transformer en media-info-jeux-connectivité-center. En gros c’est d’utiliser les fonctionnalités d’un ordinateur dans une boite ou le constructeur à l’exclusivité du choix du matériel et des services logiciels. Enfin, c’est une façon comme une autre de forcer des milliers de gens à acheter un produit pour pouvoir utiliser un service gratuit.
Dans le domaine de la saisie de texte, Nintendo s’en sort beaucoup mieux avec son périphérique de pointage intégré à sa « wiimote » qui utilise un clavier virtuel. Nous avons donc un fossé qui se creuse entre sony et nintendo proposant de grosse usine où l’on peut brancher des tonnes de périphériques différents, et la firme japonaise qui a trouvé une manette a tout faire et qui soigne la diversité au niveau interface et aide logiciels.
Je suis assez curieux de voir le résultat d’heures de chat ou seul 2 doigts (les pouces) sont actifs, fatigue musculaire sûrment, soucis articulaires probables…
IHM nouvelle ou simple déclinaison de concept ?
12/12/06
Pour ceux et celles qui ont suivis la saga des claviers à touches OLED d’Optimus Lebdev, en voici un nouvel épisode. Après le concept de clavier « classique » ou les touches sont remplacées par des écrans OLED pour en paramétrer l’affichage (toujours en annonce de lancement pour 2007) et le Optimus mini three (maintenant en version 2) comportant seulement 3 boutons-écrans, le labo de design russe nous présente un intermédiaire intéressant (ou pas).
Ce Optimus Upravlator keyboard ressemble à un écran de 10.8″ séparé en 12 compartiments. Chacuns d’entre eux est « cliquable » sur ses quatre cotés et en son milieu. Si on compte bien ça équivaut à 5 x 12 = 60 zones cliquables pour 12 mini écrans… ça laisse de la marge pour paramétrer une sympathique interface intuitive.
Vous avez jusqu’au second semestre de 2007 pour faire fleurir les idées créatives en attendant sa sortie, et voir si cela vaux le prix qui lui sera attribuer… À suivre
plus d’info
Keep out, danger Zone !
1/06/06
Dans l’idée, ce petit gadget pour Geek est un détecteur de mauvaise position de travail. (il vous bip dessus si vous vous approchez de l’écran).
Dans la pratique c’est un capteur de proximité pas trop cher. Domage que l’USB ne serve qu’a l’alimenter, on aurait pu l’utiliser pour de sympathiques petit jeux sinon…
Pour un détecteur de proximité plus opérationnel, allez donc voir chez Interface Z
Touche-moi que je sache qui tu es !
31/05/06
L’écran tactile, c’est bon, on connait (un doigt, un utilisateur), l’écran tactile multitouche aussi (plusieurs doigts, un utilisateur), mais comment on fait quand on est plus que un a avoir pleins de doigts ?
Une solution est proposée par les ingénieurs de MERL (Mitsubishi Electric Resarch Laboratories), et elle se nomme DiamondTouch. La technique est assez simple, chaque utilisateur est équipé d’un récepteur. Lorsqu’un doigt entre en contact avec l’écran, le signal électrique approprié circule via le corps du propriétaire jusqu’au récepteur. Un signal par personne, on sait donc qui touche où…