@ARTICLE{10.21494/ISTE.OP.2024.1147, TITLE={Vers l’XAI sémantique – la troisième vague de l’intelligence artificielle explicable}, AUTHOR={Mathias Bollaert , Gilles Coppin, }, JOURNAL={Ingénierie cognitique}, VOLUME={7}, NUMBER={Numéro 2}, YEAR={2024}, URL={https://www.openscience.fr/Vers-l-XAI-semantique-la-troisieme-vague-de-l-intelligence-artificielle}, DOI={10.21494/ISTE.OP.2024.1147}, ISSN={2517-6978}, ABSTRACT={Pour répondre aux problèmes posés par l’utilisation croissante des modèles IA dans les applications à forts enjeux socio-économiques ou de sécurité, l’intelligence artificielle explicable (XAI) a connu un essor important durant les dernières années. Initialement dévolue à la recherche de solutions techniques permettant de produire automatiquement des explications, elle s’est heurtée à plusieurs difficultés, en particulier lorsque ces solutions ont été confrontées à des utilisateurs finaux non experts. L’XAI s’est alors attachée à s’inspirer des sciences sociales pour produire des explications plus faciles à comprendre. Malgré certains résultats encourageants, cette nouvelle approche n’a pas apporté autant qu’espéré. Cet article analyse l’évolution de l’XAI à travers ces deux périodes. Il évoque des raisons possibles des difficultés rencontrées, puis propose une nouvelle approche pour améliorer la production automatisée d’explications. Cette approche, nommée explicabilité sémantique ou S-XAI, est centrée sur la cognition de l’utilisateur. Alors que les méthodes précédentes sont orientées sur les algorithmes ou sur la causalité, la S-XAI part du principe que la compréhension repose avant tout sur la capacité de ce dernier à s’approprier le sens de ce qui est expliqué.}}