Ingénierie et systèmes > Accueil > Ingénierie cognitique > Numéro
L’épistémologie est par nature une méta-discipline dont une structuration sous forme d’une matrice 4x4 dénotée polyptyque épistémologique est proposée dans le but d’aider à situer toute étude scientifique selon un spectre simple. Des conséquences de l’approche polyptyque sont énoncées.
En tant que concept théorique, la guerre cognitive fait l’objet d’une attention croissante. Pourtant, il existe un fossé entre la littérature naissante sur le sujet et une compréhension approfondie de la stratégie de guerre cognitive de la Chine et de ses tactiques, ainsi que de l’impact qu’elle a sur les démocraties. La recherche émet l’hypothèse que la stratégie de guerre cognitive de la Chine, tout en s’appuyant sur des technologies de rupture et des avancées scientifiques, notamment dans le domaine de la neuropsychologie, est ancrée dans la culture stratégique historique du pays, et en particulier dans la stratégie indirecte et les processus de (dé)socialisation dans la vision du monde de la Chine.
Après l’inventaire de quelques caractéristiques repérables du « sens », on considère l’interaction d’un être humain avec un autre comme une situation cruciale. La question du sens, avec l’hypothèse que le sens est le contraire de l’information, est ensuite discutée.
Pour répondre aux problèmes posés par l’utilisation croissante des modèles IA dans les applications à forts enjeux socio-économiques ou de sécurité, l’intelligence artificielle explicable (XAI) a connu un essor important durant les dernières années. Initialement dévolue à la recherche de solutions techniques permettant de produire automatiquement des explications, elle s’est heurtée à plusieurs difficultés, en particulier lorsque ces solutions ont été confrontées à des utilisateurs finaux non experts. L’XAI s’est alors attachée à s’inspirer des sciences sociales pour produire des explications plus faciles à comprendre. Malgré certains résultats encourageants, cette nouvelle approche n’a pas apporté autant qu’espéré. Cet article analyse l’évolution de l’XAI à travers ces deux périodes. Il évoque des raisons possibles des difficultés rencontrées, puis propose une nouvelle approche pour améliorer la production automatisée d’explications. Cette approche, nommée explicabilité sémantique ou S-XAI, est centrée sur la cognition de l’utilisateur. Alors que les méthodes précédentes sont orientées sur les algorithmes ou sur la causalité, la S-XAI part du principe que la compréhension repose avant tout sur la capacité de ce dernier à s’approprier le sens de ce qui est expliqué.
Les auteurs définissent le passage de l’étude de l’interaction homme-automation au HAT, équipe homme-autonomie. Cette distinction a été mise en évidence dans la littérature récente, et les raisons théoriques pour lesquelles l’expérience psychologique des humains interagissant avec l’autonomie peut varier et affecter les résultats ultérieurs de la collaboration commencent à émerger. Dans cette revue, les auteurs plongent dans les systèmes HAT en expliquant les différences entre l’automatisation et l’autonomie et en passant en revue le domaine de la collaboration entre humains pour faire des inférences pour les HAT. Les auteurs examinent le domaine de cette collaboration pour extrapoler quelques facteurs fondamentaux qui pourraient être pertinents pour les HAT. Ces facteurs impliquent notamment des éléments sociaux critiques au sein des équipes qui occupent une place centrale (comme le montre cette étude) pour les HATs. Les auteurs concluent en soulignant certaines lacunes de la recherche auxquelles les chercheurs devraient s’efforcer de répondre, ce qui devrait faciliter une compréhension plus nuancée et complète des HAT dans une diversité de contextes du monde réel.