Ingénierie et systèmes > Accueil > Revue
IngeCog - ISSN 2517-6978 - © ISTE Ltd
Ingénierie cognitique a pour vocation de publier les principaux textes scientifiques, technologiques, épistémologiques et philosophiques concernant les technologies cognitives et leurs développements actuels et futurs.
Dans une période soumise à la logique de l’exponentiel, le numérique sous toutes ses formes s’installe dans la société, dans les systèmes impliquant les hommes et les interfaces, leurs usages personnels, partagés ou plus généralement collectifs. Il envahit l’organisation et la vie des groupes comme des individus, allant jusqu’à pénétrer les corps ou s’insérer dans la pensée dans de nouvelles formes d’hybridité anthropotechnique.
De grands secteurs sont concernés : systèmes technologiques intelligents, systèmes apprenants, systèmes métacognitifs, systèmes collaboratifs et hybrides, éthique et futurs de l’ingénierie cognitique et des systèmes intelligents, naturels, artificiels et hybrides.
Ingénierie cognitique est une revue scientifique bilingue — Français–Anglais — à comité de lecture avec évaluation en double aveugle par des pairs, et éditée selon les principes “Open Science”.
Cognitive Engineering aims at publishing the main scientific, technical, epistemological and philosophical texts that concern cognitive technologies and their current and future development.
In a time ruled by exponential logic, digital technologies have spread in society, in systems involving humans and interfaces, their personal or shared uses or more globally their collective uses. Digital technologies are taking over organization and group life as well as people’s life to the point where they are entering bodies and moving into thoughts with new forms of anthropotechnical hybridity.
Important sectors are affected: intelligent and technological systems, learning systems, meta-cognitive systems, collaborative and hybrid systems, ethics and the future of cognitive engineering and its systems.
Les dupes, versions accessibles des parfums de grandes marques, connaissent un succès commercial fulgu-rant depuis la pandémie de covid-19. Les réseaux sociaux ont contribué à ce succès, faisant des dupes un objet de viralité. Les consommateurs, notamment les plus jeunes, semblent adhérer très facilement à ce style de consommation alternative, mais légale, qui déconstruit des décennies de marketing sophistiqué et de branding élitiste. Opérant comme des mémes tangibles, ils séduisent et convertissent des consommateurs en quête de pouvoir d’achat, mais également de revendica-tions sociétales progressistes (inclusion, accessibilité, égalitarisme…). Au point d’avoir un effet sur les représentations culturelles associées au luxe, voire, sur les processus de cognition humaine. Ce ne serait alors pas d’une guerre commer-ciale entre Sud global (une majorité des dupes sont fabriqués en Chine) et pays du Nord dont il faudrait se garder, mais d’une guerre cognitive qui pourrait bien affaiblir durablement le système de domination culturelle mis en place par l’Occident à travers l’iconicité lentement et savamment construite de ses grandes marques de luxe.
Cet article entend articuler l’épidémiologie des EIAS / EIGS et les modèles systémiques (Reason, Vincent) pour orienter la prévention, la récupération et l’apprentissage organisationnel en santé notamment peri-opératoire. Il décrit le continuum erreur→incident→accident, où les limites cognitives (mémoire de travail, fatigue, stress et défauts de communication) jouent un rôle central. Les biais (ancrage, confirmation) et l’effet tunnel sont ciblés par des techniques de “debiasing”. Le CRM/TEM structure le travail d’équipe : briefings, leadership adaptatif, communication fermée, cockpit stérile. Les check-lists (OMS, SURPASS) et transmissions (I-PASS/SBAR) réduisent la mortalité et les complications de manière documentée. Le Protocole de Londres 2024 (LP24) actualise l’ACR/ALARM et ancre le REX dans une logique non culpabilisante. La perspective Safety-II/HRO promeut des organisations “safe-to-fail”, sensibles aux opérations et déférentes à l’expertise. Le numérique (CPOE/CDS, BCMA, Emergency Manuals, OR Black Box, scores précoces/IA) accélère la détection, la traçabilité et l’apprentissage.
La montée en puissance de l’intelligence artificielle dans les systèmes de combat aérien accélère la collecte et l’agrégation d’informations, mais laisse à l’humain la responsabilité finale des décisions critiques, purement cognitives, telle que la décision de « tirer / ne pas tirer ». Ce type de décision engendre une charge cognitive élevée, car l’opérateur doit intégrer, en un temps très court, des informations hétérogènes. L’objectif de cette étude est d’optimiser les performances à cette prise de décision par un entraînement reposant sur des scénarios issus de retours d’expérience, mis en oeuvre dans un dispositif agile et facilement déployable. Soixante-dix membres d’équipage, affectés en escadron de chasse et issus de l’Armée de l’Air et de l’Espace française, ont participé : un groupe expert (N = 39) et un groupe intermédiaire (N = 31). Le protocole expérimental comprend, pour les intermédiaires, un pré-test, un entraînement de quarante-cinq minutes et un post-test, tandis que pour les experts, le protocole se limite à un pré-test. Les résultats sur les performances (taux d’exactitude et temps de réponse) des experts, comparés à celles des intermédiaires, indiquent que le dispositif d’entraînement mobilise effectivement des connaissances expertes dans ce type de prise de décision. Après l’entraînement, les intermédiaires améliorent significativement leurs performances. Le transfert de cette amélioration en milieu opérationnel devra être confirmé par de futures recherches. Néanmoins, ces résultats soutiennent le développement d’entraînements aisément déployables en escadron et pouvant s’intégrer de façon complémentaire aux dispositifs de formation existants. Malgré l’intensification de l’usage des systèmes basés sur l’IA, l’humain restera dans la boucle décisionnelle. Il convient donc de continuer les efforts de formation et d’entraînement pour maintenir l’efficacité des humains « aux commandes » et comprendre comment utiliser l’IA de manière adaptée pour accompagner les décisions humaines. C’est dans cette perspective que s’inscrit la présente étude afin que les développements technologiques ne laissent pas l’humain « derrière l’avion ».
Nous présentons les résultats d’une étude sur une classification binaire des émotions, à partir de données recueillies grâce aux capteurs de mouvement et aux frappes clavier d’un smartphone et d’un bracelet connecté. À cette fin, nous avons développé une application mobile permettant d’induire des émotions par le biais de vidéos et d’enregistrer les interactions des utilisateurs. Un système d’auto-évaluation numérique spécifique a été développé à partir de la Geneva Emotion Wheel pour aider les participants à exprimer leurs émotions. Les enregistrements des capteurs ont été étiquetés en fonction des déclarations des participants et des conditions vidéo. Une méthode est ainsi proposée pour traiter les données temporelles collectées et classer automatiquement la valence des émotions déclarées grâce à des techniques d’apprentissage automatique. Nous avons testé une classification générale de la valence utilisant toutes les émotions de tous les individus et une classification personnalisée utilisant un sous-ensemble d’émotions d’un seul individu. Le résultat le plus prometteur a été obtenu avec un modèle personnalisé, pour lequel nous avons pu obtenir, en moyenne pour tous les participants, deux tiers de classification correcte de la valence, en utilisant des données fusionnées de différentes modalités.
L’étude vise à examiner si le biais d’automatisation dans des situations d’arbitrage entre une aide humaine et une aide basée sur l’IA varie en fonction des caractéristiques psychosociales des individus. La littérature met en évidence la robustesse du biais d’automatisation dans les situations de prise de décision avec une seule aide, mais quelques études récentes mobilisant le paradigme de la double aide à la décision identifient des résultats plus nuancés, notamment en fonction des caractéristiques des participants. 2 groupes de participants (37 élèves pilotes militaires vs 37 pilotes opérationnels) sont engagés dans une simulation de mission aérienne d’attaque au sol, où ils doivent choisir entre les informations fournies par une aide humaine et celles fournies par une aide automatisée basée sur l’IA. La confiance en ces aides est induite a priori par des niveaux de fiabilité prédéfinis (20%, 50%, 70% 90%). A fiabilité égale, lorsque les jeunes participants et les experts sont confrontés à une aide humaine et une aide basée sur l’IA, ils ont une préférence pour l’aide humaine. Toutefois cette préférence est plus importante pour les experts. L’étude remet en question l’invariabilité du biais d’automatisation, soulignant l’impact des caractéristiques psychosociales de l’opérateur sur la prise de décision. Il semble nécessaire de reconsidérer le biais d’automatisation dans des contextes modernes au travers des représentations individuelles des technologies pour optimiser la conception des systèmes d’aide à la décision.
L’épistémologie est par nature une méta-discipline dont une structuration sous forme d’une matrice 4x4 dénotée polyptyque épistémologique est proposée dans le but d’aider à situer toute étude scientifique selon un spectre simple. Des conséquences de l’approche polyptyque sont énoncées.
En tant que concept théorique, la guerre cognitive fait l’objet d’une attention croissante. Pourtant, il existe un fossé entre la littérature naissante sur le sujet et une compréhension approfondie de la stratégie de guerre cognitive de la Chine et de ses tactiques, ainsi que de l’impact qu’elle a sur les démocraties. La recherche émet l’hypothèse que la stratégie de guerre cognitive de la Chine, tout en s’appuyant sur des technologies de rupture et des avancées scientifiques, notamment dans le domaine de la neuropsychologie, est ancrée dans la culture stratégique historique du pays, et en particulier dans la stratégie indirecte et les processus de (dé)socialisation dans la vision du monde de la Chine.
Après l’inventaire de quelques caractéristiques repérables du « sens », on considère l’interaction d’un être humain avec un autre comme une situation cruciale. La question du sens, avec l’hypothèse que le sens est le contraire de l’information, est ensuite discutée.
Pour répondre aux problèmes posés par l’utilisation croissante des modèles IA dans les applications à forts enjeux socio-économiques ou de sécurité, l’intelligence artificielle explicable (XAI) a connu un essor important durant les dernières années. Initialement dévolue à la recherche de solutions techniques permettant de produire automatiquement des explications, elle s’est heurtée à plusieurs difficultés, en particulier lorsque ces solutions ont été confrontées à des utilisateurs finaux non experts. L’XAI s’est alors attachée à s’inspirer des sciences sociales pour produire des explications plus faciles à comprendre. Malgré certains résultats encourageants, cette nouvelle approche n’a pas apporté autant qu’espéré. Cet article analyse l’évolution de l’XAI à travers ces deux périodes. Il évoque des raisons possibles des difficultés rencontrées, puis propose une nouvelle approche pour améliorer la production automatisée d’explications. Cette approche, nommée explicabilité sémantique ou S-XAI, est centrée sur la cognition de l’utilisateur. Alors que les méthodes précédentes sont orientées sur les algorithmes ou sur la causalité, la S-XAI part du principe que la compréhension repose avant tout sur la capacité de ce dernier à s’approprier le sens de ce qui est expliqué.
Comité de rédaction
Rédacteur en chef
Bernard CLAVERIE
IMS - ENSC Bordeaux INP
Membres du comité
Jean-Paul BOURRIERES
IMS – Université de Bordeaux
Laurent CHAUDRON
Theorik-Lab - Salon de Provence
Gilles COPPIN
LabSTICC - IMT Atlantique - Brest
Ralph ENGEL
SSRI-A8 - MESR - Paris
Jean-Gabriel GANASCIA
LIP6 - Sorbonne Université - Paris
Baptiste PREBOT
Direction générale de l’armement Paris