@ARTICLE{10.21494/ISTE.OP.2026.1451, TITLE={Contextualisation des explications dans les systèmes de recommandation : une approche basée sur les schémas d’interprétation des utilisateurs}, AUTHOR={Deo Munduku , Elsa Negre, }, JOURNAL={Revue ouverte d’ingénierie des systèmes d’information}, VOLUME={6}, NUMBER={Numéro spécial INFORSID 2025}, YEAR={2026}, URL={https://www.openscience.fr/Contextualisation-des-explications-dans-les-systemes-de-recommandation-une}, DOI={10.21494/ISTE.OP.2026.1451}, ISSN={2634-1468}, ABSTRACT={Les systèmes de recommandation explicables cherchent à renforcer la transparence et la confiance des utilisateurs en accompagnant chaque recommandation d’une explication. Toutefois, ces explications ne sont pas interprétées de manière uniforme : une même explication peut être comprise par certains utilisateurs mais pas par d’autres. Les approches existantes basées sur le choix de l’utilisateur, la construction de profils explicatifs ou la mise en avant des contenus permettent de justifier une recommandation en s’appuyant sur différentes informations liées à l’usage ou au contenu. Cependant, elles ne prennent pas en compte la manière dont les utilisateurs interprètent ces explications. Pour répondre à cette limite, dans cet article, nous proposons deux pistes complémentaires : (i) identifier les facteurs humains internes qui influencent le plus la compréhension d’une explication, nous faisons l’hypothèse que le facteur central est le schéma d’interprétation, entendu comme une structure cognitive orientant la sélection et la compréhension de l’information ; (ii) exploiter ces facteurs pour adapter dynamiquement le type, le style et le niveau de détail des explications. Ce positionnement ouvre la voie à une nouvelle génération de systèmes de recommandation explicables, capables de contextualiser les explications en fonction du mode de compréhension propre à chaque utilisateur, et ainsi de renforcer à la fois leur utilité, leur lisibilité et la confiance qu’ils inspirent.}}