Le 7 juin dernier, EURODECISION a assisté à la sixième journée Interaction Humain-Machine et Intelligence Artificielle, organisée conjointement par l’Association Française pour l’Intelligence Artificielle (AFIA) et l’Association Francophone d’Interaction Humain-Machine (AFIHM) dans les locaux du Sorbonne Center for Artificial Intelligence (SCAI) à Paris.

Le terme « Intelligence Artificielle » était employé ici dans le sens le plus courant de nos jours d’« IA statistique » et désignait des algorithmes d’apprentissage tels que des réseaux de neurones.

La matinée avait pour thème « Concevoir des interactions avec et pour l’Intelligence Artificielle » et des modes d’interactions très différents avec des IA ont été présentés. Un exposé présentait une interaction à l’aide de capteurs pour obtenir un feedback en temps réel. Un autre exposé présentait un modèle d’Interactive Visual Machine Learning où des experts pouvaient corriger des résultats d’un modèle. Cela a plusieurs effets : d’une part, le modèle propose des solutions de meilleure qualité et d’autre part, une interaction avec le modèle permet aux utilisateurs d’augmenter la confiance dans le modèle. Le troisième exposé de la matinée portait sur les interactions entre les designers et les IA, particulièrement sur les algorithmes de curation et de recommandation, comme par exemple la recommandation de vidéos sur YouTube. C’est un aspect méconnu et souvent ignoré des data scientists concentrés sur l’aspect algorithmique, mais la façon de présenter les données, le format de données et l’organisation des données sont tout aussi importants pour que l’utilisateur puisse s’approprier les outils et les résultats.

A travers les différentes possibilités d’interactions entre les humains et les IA, la problématique d’appropriation des résultats pour une meilleure utilisation et une plus grande confiance était très présente et faisait le lien avec les exposés de l’après-midi. C’est une problématique qui n’est pas propre à l’IA : le problème de résistance au changement en cas de nouvel outil est présent dans de nombreux autres domaines mais l’aspect « boite noire » des IA les rend hermétiques aux utilisateurs et l’interaction est l’un des leviers possibles pour la construction de la confiance dans l’outil. Par exemple, l’une des raisons du succès de ChatGPT est l’interaction que les utilisateurs peuvent avoir en construisant un dialogue ce qui mène vers une personnification de l’IA alors que la qualité des résultats n’est pas garantie. Une trop grande interaction peut donc avoir des effets pervers et il est aussi nécessaire d’établir une certaine distance entre l’utilisateur et l’outil.

L’après-midi avait pour thème « Construire, évaluer et déployer des IA de confiance ». Un premier exposé évoquait les raisonnements à base de cas qui permettent de résoudre des problèmes à partir de solutions connues en mémorisant des cas proches. Le nouveau cas est ensuite ajouté à la base. C’est un système souvent bien accepté par les utilisateurs. La construction interactive à partir des traces (toute information d’interaction avec l’utilisateur qui peut être enregistrée) a également été discutée. L’utilisateur peut avoir un contrôle sur ces traces et leur manipulation.

Pour en savoir plus, contactez-nous
Nom
Prénom
Société
E-mail *
Téléphone
Votre message *

* Champs obligatoires

Un deuxième exposé évoquait les leviers possibles pour influencer la confiance humain-IA. Elle dépend de nombreux paramètres telles que la confiance dans les concepteurs, la présence de documentation et l’expérience avec des outils d’Intelligence Artificielle (en particulier si une IA propose une recommandation qui est bonne mais surprenante pour un humain). En règle générale, les utilisateurs recherchent plus l’interaction que des explications, là où au contraire, des data scientists peuvent être plus concentrés sur les problématiques d’explicabilité. Il est également difficile de mesurer la confiance.

Un troisième exposé traitait de l’efficacité des recommandations dans des cas limites ou des cas normaux. On peut noter que sur des cas limites ou rares, un humain seul va généralement mieux appréhender la situation et proposer un meilleure solution qu’un algorithme. Sur des situations normales, une IA seule sera généralement meilleure. Et il existe des situations, entre les cas limites et les cas normaux où le plus efficace sera l’humain « augmenté », c’est-à-dire un humain qui pourra avoir une aide de l’Intelligence Artificielle. Selon les situations, il faut donc choisir le bon outil pour obtenir la meilleure solution.

Ces exposés ont montré le lien entre la confiance apportée par les utilisateurs et les interactions qu’ils peuvent avoir avec les IA. Ces problématiques ne sont pas spécifiques aux Intelligences Artificielles mais sont inévitables dans ce domaine. On pense souvent à faire de la pédagogie et à expliquer dans les grandes lignes le fonctionnement des algorithmes aux utilisateurs mais cela n’est pas suffisant s’ils n’ont pas confiance dans le résultat. Pour pouvoir s’approprier les outils, l’interaction est un levier indispensable car, par exemple, une bonne prédiction n’est pas nécessairement une prédiction vraisemblable, au moins pour les utilisateurs.

Merci aux organisateurs pour cette journée enrichissante et pour les délicieux petits fours du déjeuner 😉.