Ingénierie et systèmes > Accueil > Ingénierie cognitique > Numéro 2 > Article
Anne-Lise Marchand
CREA
France
Nicolas Maille
ONERA
France
Pauline Munoz
CREA
France
Laurent Chaudron
CREA
France
Publié le 20 décembre 2024 DOI : 10.21494/ISTE.OP.2024.1239
L’étude vise à examiner si le biais d’automatisation dans des situations d’arbitrage entre une aide humaine et une aide basée sur l’IA varie en fonction des caractéristiques psychosociales des individus. La littérature met en évidence la robustesse du biais d’automatisation dans les situations de prise de décision avec une seule aide, mais quelques études récentes mobilisant le paradigme de la double aide à la décision identifient des résultats plus nuancés, notamment en fonction des caractéristiques des participants. 2 groupes de participants (37 élèves pilotes militaires vs 37 pilotes opérationnels) sont engagés dans une simulation de mission aérienne d’attaque au sol, où ils doivent choisir entre les informations fournies par une aide humaine et celles fournies par une aide automatisée basée sur l’IA. La confiance en ces aides est induite a priori par des niveaux de fiabilité prédéfinis (20%, 50%, 70% 90%). A fiabilité égale, lorsque les jeunes participants et les experts sont confrontés à une aide humaine et une aide basée sur l’IA, ils ont une préférence pour l’aide humaine. Toutefois cette préférence est plus importante pour les experts. L’étude remet en question l’invariabilité du biais d’automatisation, soulignant l’impact des caractéristiques psychosociales de l’opérateur sur la prise de décision. Il semble nécessaire de reconsidérer le biais d’automatisation dans des contextes modernes au travers des représentations individuelles des technologies pour optimiser la conception des systèmes d’aide à la décision.
This study examines whether the automation bias in situations of arbitration between human and AI-based assistance varies as a function of individuals’ psychosocial characteristics. The literature highlights the robustness of the automation bias in decision-making situations with a single aid, but a few recent studies mobilizing the dual decision aid paradigm identify more nuanced results, particularly as a function of participants’ characteristics. 2 groups of participants (37 military pilot students vs. 37 operational pilots) are engaged in an close air support mission simulation, where they must choose between information provided by a human aid and that provided by an AI-based automated aid. Trust in these aids is induced a priori by predefined levels of reliability (20%, 50%, 70% 90%). With equal reliability, when young participants and experts are confronted with a human aid and an AI-based aid, they have a preference for the human aid. However, this preference is greater for experts. The study questions the invariability of automation bias, highlighting the impact of the operator’s psychosocial characteristics on decision-making. It seems necessary to reconsider the automation bias in modern contexts through individual representations of technologies to optimize the design of decision support systems.
Biais d’automatisation Confiance Fiabilité Man Machine Teaming Intelligence artificielle Prise de décision
Artificial Intelligence Automation Bias Decision-making Man Machine Teaming Reliability Trust