exit

Information and Communication   > Home   > Open Journal in Information Systems Engineering   > Special Issue INFORSID 2025   > Article

Contextualizing Explanations in Recommender Systems : An Approach Based on User Interpretive Schemas

Contextualisation des explications dans les systèmes de recommandation : une approche basée sur les schémas d’interprétation des utilisateurs


Deo Munduku
Université Paris-Dauphine – PSL
France

Elsa Negre
Université Paris-Dauphine – PSL
France



Published on 22 April 2026   DOI : 10.21494/ISTE.OP.2026.1451

Abstract

Résumé

Keywords

Mots-clés

Explainable recommender systems aim to strengthen transparency and user trust by providing an explanation alongside each recommendation. However, these explanations are not interpreted uniformly : the same explanation may be understood by some users but not by others. Existing approaches based on user choice, the construction of explanatory profiles, or the highlighting of content justify a recommendation by relying on different information related to usage or content. Nevertheless, they do not take into account the way users actually interpret these explanations. To address this limitation, in this paper we propose two complementary directions : (i) identifying the internal human factors that most strongly influence the understanding of an explanation ; we hypothesize that the central factor is the interpretive schema, understood as a cognitive structure guiding the selection and understanding of information ; (ii) exploiting these factors to dynamically adapt the type, style, and level of detail of explanations. This positioning paves the way for a new generation of explainable recommender systems, capable of contextualizing explanations according to each user’s own mode of understanding, and thereby reinforcing their usefulness, readability, and the trust they inspire.

Les systèmes de recommandation explicables cherchent à renforcer la transparence et la confiance des utilisateurs en accompagnant chaque recommandation d’une explication. Toutefois, ces explications ne sont pas interprétées de manière uniforme : une même explication peut être comprise par certains utilisateurs mais pas par d’autres. Les approches existantes basées sur le choix de l’utilisateur, la construction de profils explicatifs ou la mise en avant des contenus permettent de justifier une recommandation en s’appuyant sur différentes informations liées à l’usage ou au contenu. Cependant, elles ne prennent pas en compte la manière dont les utilisateurs interprètent ces explications. Pour répondre à cette limite, dans cet article, nous proposons deux pistes complémentaires : (i) identifier les facteurs humains internes qui influencent le plus la compréhension d’une explication, nous faisons l’hypothèse que le facteur central est le schéma d’interprétation, entendu comme une structure cognitive orientant la sélection et la compréhension de l’information ; (ii) exploiter ces facteurs pour adapter dynamiquement le type, le style et le niveau de détail des explications. Ce positionnement ouvre la voie à une nouvelle génération de systèmes de recommandation explicables, capables de contextualiser les explications en fonction du mode de compréhension propre à chaque utilisateur, et ainsi de renforcer à la fois leur utilité, leur lisibilité et la confiance qu’ils inspirent.

Recommender systems explanations contextualization personalization interpretive schema

Systèmes de recommandation explications contextualisation personnalisation schéma d’interprétation

encart iste group