exit

Ingénierie et systèmes   > Accueil   > Ingénierie cognitique   > Numéro 2   > Article

Vers l’XAI sémantique – la troisième vague de l’intelligence artificielle explicable

Toward semantic XAI – the third wave of explainable artificial intelligence


Mathias Bollaert
IMT Atlantique Lab-STICC UMR 6285 Equipe INUIT / Thales DMS

Gilles Coppin
IMT Atlantique Lab-STICC UMR 6285 Equipe INUIT

Reçu le : 08 octobre 2023
Accepté le : 06 avril 2024



Publié le 12 avril 2024   DOI : 10.21494/ISTE.OP.2024.1147

Résumé

Abstract

Mots-clés

Keywords

Pour répondre aux problèmes posés par l’utilisation croissante des modèles IA dans les applications à forts enjeux socio-économiques ou de sécurité, l’intelligence artificielle explicable (XAI) a connu un essor important durant les dernières années. Initialement dévolue à la recherche de solutions techniques permettant de produire automatiquement des explications, elle s’est heurtée à plusieurs difficultés, en particulier lorsque ces solutions ont été confrontées à des utilisateurs finaux non experts. L’XAI s’est alors attachée à s’inspirer des sciences sociales pour produire des explications plus faciles à comprendre. Malgré certains résultats encourageants, cette nouvelle approche n’a pas apporté autant qu’espéré. Cet article analyse l’évolution de l’XAI à travers ces deux périodes. Il évoque des raisons possibles des difficultés rencontrées, puis propose une nouvelle approche pour améliorer la production automatisée d’explications. Cette approche, nommée explicabilité sémantique ou S-XAI, est centrée sur la cognition de l’utilisateur. Alors que les méthodes précédentes sont orientées sur les algorithmes ou sur la causalité, la S-XAI part du principe que la compréhension repose avant tout sur la capacité de ce dernier à s’approprier le sens de ce qui est expliqué.

To respond to the problems posed by the growing use of AI models in high stakes applications, explainable artificial intelligence (XAI) has experienced significant growth in recent years. Initially dedicated to the search for technical solutions making it possible to produce explanations automatically, it encountered several difficulties, in particular when these solutions were confronted with non-expert end users. The XAI then sought to draw inspiration from the social sciences to produce explanations that were easier to understand. Despite some encouraging results, this new approach has not brought as much as hoped. This article analyzes the evolution of the XAI through these two periods. He discusses possible reasons for the difficulties encountered, and then proposes a new approach to improve the automated production of explanations. This approach, called semantic explainability or S-XAI, focuses on user cognition. While previous methods are oriented towards algorithms or causality, S-XAI starts from the principle that understanding relies above all on the user’s ability to appropriate the meaning of what is explained.

Causalité explicabilité IA intelligence artificielle interaction sémantique sciences humaines et sociales utilisateurs XAI

AI artificial intelligence end-users causality explainability human and social sciences interaction semantics XAI