Ingénierie et systèmes > Accueil > Revue
IngeCog - ISSN 2517-6978 - © ISTE Ltd
Ingénierie cognitique est une revue scientifique bilingue — Français–Anglais — à comité de lecture avec évaluation en double aveugle par des pairs (peer review), et éditée selon les principes “Open Science”.
Ingénierie cognitique a pour vocation de publier les principaux textes scientifiques, technologiques, épistémologiques et philosophiques concernant les technologies cognitives et leurs développements actuels et futurs.
Dans une période soumise à la logique de l’exponentiel, le numérique sous toutes ses formes s’installe dans la société, dans les systèmes impliquant les hommes et les interfaces, leurs usages personnels, partagés ou plus généralement collectifs. Il envahit l’organisation et la vie des groupes comme des individus, allant jusqu’à pénétrer les corps ou s’insérer dans la pensée dans de nouvelles formes d’hybridité anthropotechnique.
De grands secteurs sont concernés : systèmes technologiques intelligents, systèmes apprenants, systèmes métacognitifs, systèmes collaboratifs et hybrides, éthique et futurs de l’ingénierie cognitique et des systèmes intelligents, naturels, artificiels et hybrides.
Les articles sont publiés sous la licence Creative Commons CC BY-NC-ND.
Cognitive Engineering aims at publishing the main scientific, technical, epistemological and philosophical texts that concern cognitive technologies and their current and future development.
In a time ruled by exponential logic, digital technologies have spread in society, in systems involving humans and interfaces, their personal or shared uses or more globally their collective uses. Digital technologies are taking over organization and group life as well as people’s life to the point where they are entering bodies and moving into thoughts with new forms of anthropotechnical hybridity.
Important sectors are affected: intelligent and technological systems, learning systems, meta-cognitive systems, collaborative and hybrid systems, ethics and the future of cognitive engineering and its systems.
Le Nation branding, que l’on peut définir comme étant l’application de principes de stratégie de marque à un Etat, est encore perçu comme une approche marketing destinée à valoriser l’image d’un pays. C’est sans doute cette perception réductrice qui a tenu à distance les chercheurs en sciences cognitives de ce concept complexe et polysémique. Pourtant, à l’analyse, il ressort que le Nation branding est en relation étroite avec ces sciences, que ce soit au niveau des processus de construction de marque nationale que de ses impacts sur les perceptions et comportements des publics-cibles (résidents, touristes, investisseurs, diasporas…). Dans un contexte généralisé de guerre cognitive multipolaire, le Nation branding, ainsi que son « bras armé », la Diplomatie publique, pourraient bien s’affirmer comme étant des atouts décisifs, tant au niveau de l’impact géo-politique qu’ils peuvent générer dans l’arène internationale, que de la résilience cognitive auxquels ils contribuent en fédérant des populations autour de narratifs identitaires cohérents. Il sera enfin inté-ressant d’aborder la thématique de la durabilité, que le Nation branding doit pouvoir intégrer à haut niveau pour qu’elle parvienne à structurer le développement économique des Etats, au Nord comme au Sud.
Le texte montre le décalage entre le temps numérique, instantané (IA, recherches en ligne), et le temps biologique, lent et incompressible, de la chirurgie (cicatrisation, consolidation, rééducation). Cette discordance crée des attentes irréalistes chez les patients. En s’appuyant sur René Leriche et les humanités médicales (Cerceo, Charon, Kleinman), l’auteur rappelle que la chirurgie est d’abord une relation humaine, faite d’écoute et de discernement du “bon moment”. L’IA améliore les étapes rapides (diagnostic, planification), mais ne peut pas accélérer la guérison : elle doit servir à expliquer, pas à promettre l’impossible.
Les dupes, versions accessibles des parfums de grandes marques, connaissent un succès commercial fulgu-rant depuis la pandémie de covid-19. Les réseaux sociaux ont contribué à ce succès, faisant des dupes un objet de viralité. Les consommateurs, notamment les plus jeunes, semblent adhérer très facilement à ce style de consommation alternative, mais légale, qui déconstruit des décennies de marketing sophistiqué et de branding élitiste. Opérant comme des mémes tangibles, ils séduisent et convertissent des consommateurs en quête de pouvoir d’achat, mais également de revendica-tions sociétales progressistes (inclusion, accessibilité, égalitarisme…). Au point d’avoir un effet sur les représentations culturelles associées au luxe, voire, sur les processus de cognition humaine. Ce ne serait alors pas d’une guerre commer-ciale entre Sud global (une majorité des dupes sont fabriqués en Chine) et pays du Nord dont il faudrait se garder, mais d’une guerre cognitive qui pourrait bien affaiblir durablement le système de domination culturelle mis en place par l’Occident à travers l’iconicité lentement et savamment construite de ses grandes marques de luxe.
Cet article entend articuler l’épidémiologie des EIAS / EIGS et les modèles systémiques (Reason, Vincent) pour orienter la prévention, la récupération et l’apprentissage organisationnel en santé notamment peri-opératoire. Il décrit le continuum erreur→incident→accident, où les limites cognitives (mémoire de travail, fatigue, stress et défauts de communication) jouent un rôle central. Les biais (ancrage, confirmation) et l’effet tunnel sont ciblés par des techniques de “debiasing”. Le CRM/TEM structure le travail d’équipe : briefings, leadership adaptatif, communication fermée, cockpit stérile. Les check-lists (OMS, SURPASS) et transmissions (I-PASS/SBAR) réduisent la mortalité et les complications de manière documentée. Le Protocole de Londres 2024 (LP24) actualise l’ACR/ALARM et ancre le REX dans une logique non culpabilisante. La perspective Safety-II/HRO promeut des organisations “safe-to-fail”, sensibles aux opérations et déférentes à l’expertise. Le numérique (CPOE/CDS, BCMA, Emergency Manuals, OR Black Box, scores précoces/IA) accélère la détection, la traçabilité et l’apprentissage.
La montée en puissance de l’intelligence artificielle dans les systèmes de combat aérien accélère la collecte et l’agrégation d’informations, mais laisse à l’humain la responsabilité finale des décisions critiques, purement cognitives, telle que la décision de « tirer / ne pas tirer ». Ce type de décision engendre une charge cognitive élevée, car l’opérateur doit intégrer, en un temps très court, des informations hétérogènes. L’objectif de cette étude est d’optimiser les performances à cette prise de décision par un entraînement reposant sur des scénarios issus de retours d’expérience, mis en oeuvre dans un dispositif agile et facilement déployable. Soixante-dix membres d’équipage, affectés en escadron de chasse et issus de l’Armée de l’Air et de l’Espace française, ont participé : un groupe expert (N = 39) et un groupe intermédiaire (N = 31). Le protocole expérimental comprend, pour les intermédiaires, un pré-test, un entraînement de quarante-cinq minutes et un post-test, tandis que pour les experts, le protocole se limite à un pré-test. Les résultats sur les performances (taux d’exactitude et temps de réponse) des experts, comparés à celles des intermédiaires, indiquent que le dispositif d’entraînement mobilise effectivement des connaissances expertes dans ce type de prise de décision. Après l’entraînement, les intermédiaires améliorent significativement leurs performances. Le transfert de cette amélioration en milieu opérationnel devra être confirmé par de futures recherches. Néanmoins, ces résultats soutiennent le développement d’entraînements aisément déployables en escadron et pouvant s’intégrer de façon complémentaire aux dispositifs de formation existants. Malgré l’intensification de l’usage des systèmes basés sur l’IA, l’humain restera dans la boucle décisionnelle. Il convient donc de continuer les efforts de formation et d’entraînement pour maintenir l’efficacité des humains « aux commandes » et comprendre comment utiliser l’IA de manière adaptée pour accompagner les décisions humaines. C’est dans cette perspective que s’inscrit la présente étude afin que les développements technologiques ne laissent pas l’humain « derrière l’avion ».
L’étude vise à examiner si le biais d’automatisation dans des situations d’arbitrage entre une aide humaine et une aide basée sur l’IA varie en fonction des caractéristiques psychosociales des individus. La littérature met en évidence la robustesse du biais d’automatisation dans les situations de prise de décision avec une seule aide, mais quelques études récentes mobilisant le paradigme de la double aide à la décision identifient des résultats plus nuancés, notamment en fonction des caractéristiques des participants. 2 groupes de participants (37 élèves pilotes militaires vs 37 pilotes opérationnels) sont engagés dans une simulation de mission aérienne d’attaque au sol, où ils doivent choisir entre les informations fournies par une aide humaine et celles fournies par une aide automatisée basée sur l’IA. La confiance en ces aides est induite a priori par des niveaux de fiabilité prédéfinis (20%, 50%, 70% 90%). A fiabilité égale, lorsque les jeunes participants et les experts sont confrontés à une aide humaine et une aide basée sur l’IA, ils ont une préférence pour l’aide humaine. Toutefois cette préférence est plus importante pour les experts. L’étude remet en question l’invariabilité du biais d’automatisation, soulignant l’impact des caractéristiques psychosociales de l’opérateur sur la prise de décision. Il semble nécessaire de reconsidérer le biais d’automatisation dans des contextes modernes au travers des représentations individuelles des technologies pour optimiser la conception des systèmes d’aide à la décision.
L’épistémologie est par nature une méta-discipline dont une structuration sous forme d’une matrice 4x4 dénotée polyptyque épistémologique est proposée dans le but d’aider à situer toute étude scientifique selon un spectre simple. Des conséquences de l’approche polyptyque sont énoncées.
En tant que concept théorique, la guerre cognitive fait l’objet d’une attention croissante. Pourtant, il existe un fossé entre la littérature naissante sur le sujet et une compréhension approfondie de la stratégie de guerre cognitive de la Chine et de ses tactiques, ainsi que de l’impact qu’elle a sur les démocraties. La recherche émet l’hypothèse que la stratégie de guerre cognitive de la Chine, tout en s’appuyant sur des technologies de rupture et des avancées scientifiques, notamment dans le domaine de la neuropsychologie, est ancrée dans la culture stratégique historique du pays, et en particulier dans la stratégie indirecte et les processus de (dé)socialisation dans la vision du monde de la Chine.
Après l’inventaire de quelques caractéristiques repérables du « sens », on considère l’interaction d’un être humain avec un autre comme une situation cruciale. La question du sens, avec l’hypothèse que le sens est le contraire de l’information, est ensuite discutée.
Pour répondre aux problèmes posés par l’utilisation croissante des modèles IA dans les applications à forts enjeux socio-économiques ou de sécurité, l’intelligence artificielle explicable (XAI) a connu un essor important durant les dernières années. Initialement dévolue à la recherche de solutions techniques permettant de produire automatiquement des explications, elle s’est heurtée à plusieurs difficultés, en particulier lorsque ces solutions ont été confrontées à des utilisateurs finaux non experts. L’XAI s’est alors attachée à s’inspirer des sciences sociales pour produire des explications plus faciles à comprendre. Malgré certains résultats encourageants, cette nouvelle approche n’a pas apporté autant qu’espéré. Cet article analyse l’évolution de l’XAI à travers ces deux périodes. Il évoque des raisons possibles des difficultés rencontrées, puis propose une nouvelle approche pour améliorer la production automatisée d’explications. Cette approche, nommée explicabilité sémantique ou S-XAI, est centrée sur la cognition de l’utilisateur. Alors que les méthodes précédentes sont orientées sur les algorithmes ou sur la causalité, la S-XAI part du principe que la compréhension repose avant tout sur la capacité de ce dernier à s’approprier le sens de ce qui est expliqué.
Comité de rédaction
Rédacteur en chef
Bernard CLAVERIE
IMS - ENSC Bordeaux INP
Membres du comité
Jean-Paul BOURRIERES
IMS – Université de Bordeaux
Laurent CHAUDRON
Theorik-Lab - Salon de Provence
Gilles COPPIN
LabSTICC - IMT Atlantique - Brest
Ralph ENGEL
SSRI-A8 - MESR - Paris
Jean-Gabriel GANASCIA
LIP6 - Sorbonne Université - Paris
Baptiste PREBOT
Direction générale de l’armement Paris