Vous connaissez peut-être les recherches autour de l’expérience utilisateur, mais peut-être moins autour de l’interaction homme-machine. Ce domaine de recherche universitaire est connu depuis longtemps pour étudier de près la façon dont les utilisateurs manipulent et contrôlent les interfaces informatiques.
Ce que l’on sait moins, c’est que les expériences empiriques des chercheurs en IHM ont largement, mais discrètement, inspiré les dernières et les plus célèbres inventions en matière de design (rien de moins que l’ordinateur personnel, les logiciels et l’interface mobile).
Voici 4 grandes idées dans le domaine de l’IHM qui ont influencé les designers pour créer des produits que nous connaissons et utilisons maintenant tous les jours.
L’IHM et la naissance de l’interface utilisateur
Lorsque Ivan Sutherland conçoit en 1962 un moyen de manipuler des symboles sur une interface avec un outil aussi intuitif qu’un stylo léger, il considère que les modèles de communication basés sur l’écriture sont une perte de temps pour les utilisateurs. Un an plus tard, un autre designer, Douglas Engelbart, s’est demandé comment les utilisateurs pouvaient interagir directement avec une interface graphique. Il a alors conçu un pointeur mobile sur une surface pour remplacer le stylo léger, ce que nous appelons aujourd’hui la souris de bureau.
Plus encore que d’inspirer ces inventions, ce problème fondateur d’expérience utilisateur a ensuite formé le domaine de recherche autour de l’interaction homme-machine. Pour l’étudier, les premiers chercheurs en IHM ont convenu d’utiliser une méthode expérimentale et empirique pour évaluer l’ergonomie des premiers prototypes d’ordinateurs personnels.
Par exemple, ils ont réalisé une étude comparative entre différents concepts de produits (la souris, le contrôleur laser, la commande au genou et le joystick) pour voir quel était le dispositif de pointage le plus efficace. La souris s’est alors avérée être la plus souple et la plus précise pour pointer et sélectionner un objet, mais pas la plus rapide (qui était la commande au genou).
De même, l’invention de l’interface graphique et de son affichage par menus s’est appuyée sur des études quantitatives analysant les performances relatives des participants face à différentes interfaces (menus par profondeur ou par largeur). C’est à cette même période que les utilisateurs ne faisaient plus de commandes par saisie, mais par reconnaissance visuelle, grâce à l’interface graphique. Le travail du designer est devenu alors crucial et essentiel. Et c’est pourquoi les chercheurs en interaction se sont mis à étudier de très près l’interaction entre les utilisateurs et leur interface.
Toutes ces études ont ensuite progressivement attiré l’attention des entreprises et de leurs équipes de conception, qui ont utilisé les résultats et les conclusions de ces recherches pour guider leur travail.
Les commandes graphiques qui définissent les logiciels modernes
Avant l’apparition des ordinateurs, les utilisateurs ne manipulaient que des boutons de contrôle dits « durs » (hard) pour agir sur leur environnement. Ces leviers de commande étaient visuellement différenciés par la réponse qu’ils déclenchaient (un double interrupteur qui allume ou éteigne la lumière, par exemple).
L’invention du « soft control design », des manettes graphiques qui n’incarnent pas littéralement leur utilisation, a posé de nouvelles questions aux chercheurs en IHM. Par exemple, comment créer une icône qui ne prenne pas toute la place, qui indique clairement son fonctionnement et qui pousse à l’action ?
Les chercheurs se sont particulièrement intéressés à la manière dont les interfaces graphiques rappellent aux utilisateurs les leviers de commande durs qui leur sont familiers. Les ordinateurs personnels se sont notamment remplis d’objets graphiques qui tentaient d’incarner métaphoriquement l’action qu’ils étaient censés provoquer. Par exemple, une icône représentant un pinceau (pour peindre avec des couleurs picturales) ou une lumière pour indiquer la luminosité de l’écran.
De même que les contrôles graphiques ne représentent pas littéralement leur fonction, Les outils de contrôle tels que la souris ne sont pas non plus directement congruents avec leur mouvement graphique. Lorsque les utilisateurs déplacent une souris vers un axe vertical, l’action se reflète dans la forme verticale. Cela signifie que les utilisateurs doivent s’adapter à une transformation spatiale précise. L’une des conclusions du domaine de l’IHM pour faciliter l’interaction est de créer des modes d’utilisation, comme les différentes combinaisons que permettent les clics droit et gauche de la souris et les touches du clavier, en plus de l’axe de rotation de la souris.
Ces deux modes d’utilisation, et d’autres encore, ont défini la conception des logiciels telle que nous la connaissons aujourd’hui.
Les métaphores de base de l’interface informatique
La question de la congruence spatiale entre le dispositif et l’action graphique définit une autre perspective apportée par la science de l’IHM : le rôle des métaphores dans l’utilisation de l’interface graphique. Alors qu’il est facile de deviner la fonction des boutons d’ascenseur en forme de flèche vers le haut et vers le bas, les icônes des logiciels ne peuvent avoir qu’une signification plus abstraite, sans rapport avec les analogies physiques naturelles.
Plus généralement, l’utilisation de métaphores telles que « bureau » ou « fichier texte » aide à clarifier ces fonctions en les reliant à des outils physiques (un bureau qui rassemble tous nos fichiers et outils ; un fichier qui contient du texte et peut être consulté). Et ces métaphores sont essentielles pour façonner les modèles mentaux des utilisateurs, et pour forger leurs attentes et leurs habitudes face à de nouvelles fonctionnalités.
Par exemple, pour un programme aussi classique que Window Paint, le choix des icônes est soigneusement réfléchi en fonction de la fonction proposée. Par exemple, la loupe permet naturellement de zoomer ou la boussole permet intuitivement de se déplacer dans l’interface.
Les chercheurs en IHM ont montré que les métaphores les plus puissantes déclenchent des notions intuitives telles que le temps et l’espace. Par exemple, le sens des aiguilles d’une montre permet de communiquer les chiffres beaucoup plus rapidement que le système décimal. Les concepteurs l’ont déjà utilisé pour aider les aveugles à s’orienter, en recevant des indications directionnelles par le biais des chiffres du cadran.
Les recherches en interaction homme machine à l’origine de l’iPhone
Avec toutes ces études, le domaine de l’IHM a naturellement inspiré les designers à l’origine des inventions d’interfaces graphiques les plus populaires de ces dernières années. Les chercheurs en IHM ont particulièrement vu de grandes opportunités derrière les interfaces qui permettent une interaction directe, comme l’écran tactile.
Cependant, pour rendre possible une interface à écran tactile, ils ont été confrontés au problème du « gros doigt », ou problème d’occlusion. En raison de la constitution de nos doigts, nous ne pouvons pas sélectionner un élément au pixel près comme avec un curseur de souris, ce qui rend difficile la sélection d’objets. Une des idées trouvées par les chercheurs a été d’utiliser un curseur décalé, qui apparaît lorsque le doigt touche l’écran, permettant de l’orienter plus précisément sur un petit objet.
Mais deux méthodes d’application de ce concept ont été testées dans leur efficacité. L’une consistait à effectuer la sélection de l’objet au moment où le contact est établi avec l’écran. L’autre consistait à bloquer la sélection après le contact avec l’écran. La dernière s’est finalement révélée plus efficace. Et c’est ce qu’ont retenu les concepteurs du premier iPhone, en créant leur technologie multitouch devenue si importante aujourd’hui.
Vers des interactions informatiques pilotées par le regard ?
Les découvertes et l’influence de l’IHM ne s’arrêtent pas là et continuent d’inspirer les inventions des designers d’aujourd’hui.
Par exemple, la nouvelle tendance des produits basés sur l’accéléromètre est issue des longues recherches sur ce sujet, notamment pour détecter et gérer intuitivement l’inclinaison de l’écran. Une autre idée a été d’utiliser le mouvement des yeux pour permettre aux utilisateurs de contrôler des objets. Si la technologie n’est pas encore mature, les chercheurs ont déjà prouvé qu’elle sera un ingrédient essentiel de la fonctionnalité des futurs produits.