Vous êtes-vous déjà énervé contre un ordinateur qui tombe constamment en panne ?
On peut supposer qu’on a moins de sympathie pour les applications et algorithmes mal conçus que pour des individus maladroits. Pourtant, ces sentiments sont plus ambigus qu’en apparence.
Plutôt que de s’énerver contre elles ou de s’en plaindre, les utilisateurs ont en fait souvent plus de sympathie pour les erreurs des machines que pour celles des humains. Selon César A. Hidalgo, chercheur en IHM, cela vient principalement du fait qu’ils jugent les machines non pas en fonction de leur intention, mais de leur résultat.
Qu’ils soient confrontés aux résultats de décisions biaisées ou injustes, les utilisateurs n’attribuent jamais vraiment d’intention morale aux machines, mais seulement une nécessité fonctionnelle de bien faire leur travail.
Cela nous donne 4 faits amusants issus des sciences comportementales qui expliquent l’interaction homme-machine sous un nouvel angle.
Le jugement humain face aux biais des IA
Que ce soit pour aider à prendre une décision, embaucher un nouvel employé ou reconnaître un visage, nous savons comment les biais algorithmiques peuvent influencer les IA. Les algorithmes récoltent des données qui conservent des préférences systémiques, et cela se traduit parfois par des décisions discriminatoires envers certains individus.
Mais que pense les utilisateurs de ces systèmes d’IA s’ils se comportent de manière injuste envers certaines personnes ? En voudraient-ils plus à la machine qu’à des individus qui les discriminent délibérément ?
César Hidalgo, un ancien chercheur du MIT et économiste, a tenté de répondre à ces questions par le biais d’expériences sociales. Il a présenté plusieurs situations de discrimination à des participants et leur a demandé de juger de l’équité en plaçant soit une machine, soit un humain à la tête du projet. Ces situations pouvaient aller d’un directeur des ressources humaines qui ne sélectionne jamais de candidats d’une origine spécifique à qualifications égales, à une brigade de police qui détient de nombreux individus innocents de la même origine.
Dans tous ces cas, les participants ont jugé que les humains étaient plus intentionnels, et donc plus responsables. Étant considérés comme plus conscients de leurs actions, ils sont plus fortement blâmés pour leur mauvaise intention que les machines issues de leur mauvais calcul. Néanmoins, lorsqu’on leur a demandé qui ils souhaitaient voir remplacer ces individus discriminants, les participants ont préféré d’autres individus plus justes.
La perception ambiguë de l’automatisation du travail
Cette ambiguïté refait surface lorsqu’on aborde la question de l’automatisation du travail. Hidalgo a étudié les réactions des gens à cette situation au moyen d’une méthode de recherche similaire.
Il leur a présenté des récits dans lesquels les employés d’une entreprise étaient remplacés soit par une machine pilotée par l’IA, soit par un travailleur étranger plus productif et plus jeune. Il leur a demandé ce qu’ils pensaient de ces situations dans différents secteurs et situations.
Étonnamment, les participants ont généralement préféré remplacer leur emploi par des machines plutôt que par un travailleur étranger. Bien que leurs préférences varient en fonction de la situation (ils ont tendance à accepter davantage qu’un chauffeur soit remplacé par un camion autonome qu’un enseignant soit remplacé par un robot enseignant), ils s’accordent souvent à dire qu’ils préfèrent l’automatisation à un autre travailleur.
Les explications de ces sentiments sont de plusieurs ordres. Les participants peuvent avoir le sentiment que l’automatisation technologique est inévitable, tandis que le remplacement par un travailleur étranger provoque leur sentiment d’appartenance. Ils peuvent également avoir le sentiment que ce dernier les menace plus personnellement, puisqu’il est aussi plus fréquent. Le remplacement par un humain peut également sembler plus injuste, car les travailleurs étrangers ayant les mêmes qualifications n’ont pas plus le droit d’avoir un emploi qu’eux.
Cela explique pourquoi l’automatisation semble provoquer des émotions moins extrêmes que la délocalisation des entreprises dans les années 1990 et 2000 vers les pays à bas salaires.
Pas d’indulgence pour les accidents d’origine informatique
Alors que les voitures autopilotées deviennent de plus en plus une réalité, on peut se demander comment les utilisateurs perçoivent leur responsabilité par rapport à celle des conducteurs humains.
Pour répondre à cette question, Hidalgo et son équipe ont mis les participants face à diverses situations d’accidents de la route impliquant soit un conducteur humain, soit une IA. Ces accidents étaient plus ou moins graves en fonction de facteurs internes ou externes. Ces situations comprenaient également des choix qui causaient des dommages aux conducteurs ou aux passants.
Les résultats de cette expérience montrent principalement la grande responsabilité qui pèse sur les voitures autonomes. Les participants jugent plus négativement les accidents impliquant des voitures autonomes, les percevant comme créant plus de dommages. Cela s’explique notamment par le fait qu’il leur est relativement plus facile de se mettre dans la peau d’un conducteur humain que dans celle d’une machine à conduire. Ils sont plus prompts à reconnaître qu’ils pourraient réagir de la même manière qu’un conducteur humain, notamment dans le cas d’un facteur exogène (comme la chute d’un arbre sur une route).
Ainsi, ils sont moins indulgents envers les machines qui provoquent des accidents, s’attendant à ce qu’elles soient plus fiables et plus sûres.
Pourquoi les machines sont jugées uniquement sur les résultats
Quelles conclusions pouvons-nous tirer de toutes ces études ?
Tout d’abord, si l’on examine les relations globales entre le sentiment de préjudice et l’intention, les gens accordent plus d’intention aux actions humaines qu’aux actions des machines. Cependant, paradoxalement, ils pardonneraient plus facilement les actions humaines que les actions de la machine. Cela s’explique par le fait qu’ils perçoivent plus facilement les erreurs humaines comme le résultat de la malchance, et celles des machines davantage comme des erreurs à corriger.
Lorsque nous étudions la relation entre l’intention et l’injustice, nous tombons sur un constat qui nuance davantage ce jugement humain. Les situations qui impliquent le plus d’intention de la part des acteurs (comme les insultes ou les discriminations) sont évidemment jugées plus négativement pour les humains que pour les machines. Les humains sont considérés comme responsables de leur mauvaise intention, alors que les machines sont considérées comme n’ayant pas d’intention propre. En revanche, les situations impliquant peu d’intention (comme les accidents) placent les machines en position de responsabilité, puisque nous supposons qu’elles sont programmées pour éviter toute erreur.
Enfin, en évaluant la relation entre la perception de l’injustice et le préjudice causé, nous constatons que moins les humains impliqués subissent de préjudice, plus les machines sont perçues comme les principaux coupables. À l’inverse, lorsque le préjudice infligé est important pour les victimes, les acteurs humains sont jugés très négativement.
Au total, on observe deux modes de jugement très différents.
Lorsque les acteurs humains sont impliqués, les utilisateurs jugent leurs actions en fonction de leur intention. Ils peuvent faire des erreurs, mais s’ils sont mal intentionnés, ils sont encore plus responsables de leur action.
Les machines, en revanche, sont évaluées par leur résultat. Si elles sont incapables d’éviter des erreurs préjudiciables, elles sont jugées négativement, quoi qu’il arrive. Le bon côté des choses est que pour les situations normalement jugées très sévèrement (comme la discrimination ou l’insulte mal intentionnée), la machine est jugée sans excès de sévérité puisqu’aucune intention n’est impliquée.
Mais cela signifie également que les concepteurs doivent minimiser les dommages indirects et les injustices que les logiciels et les applications intelligentes peuvent produire. Car il n’y a décidément aucune sympathie pour un algorithme mal conçu !