Le biais d'automatisation est la tendance des humains à privilégier les suggestions provenant de systèmes automatisés d’aide à la décision, et à ignorer les informations contradictoires provenant d'autres sources, même lorsque ces dernières sont correctes[1]. Ce biais trouve son origine dans la psychologie sociale, où il a été observé que les individus attribuent des évaluations plus positives aux décisions prises par des humains qu'à celles provenant d'objets neutres[2]. Un biais similaire a été identifié dans les interactions entre humains et systèmes automatisés, où les décisions automatisées sont souvent perçues de manière plus favorable qu'une évaluation neutre[3],[4].
Ce problème est de plus en plus préoccupant, notamment dans des environnements critiques comme les unités de soins intensifs, les centrales nucléaires et les cockpits d’avions, où des systèmes automatisés sont largement utilisés pour limiter les erreurs humaines. Les erreurs liées au biais d'automatisation se produisent souvent lorsque les décisions reposent sur des systèmes automatisés, et que l'humain se trouve en position d'observateur avec la possibilité de prendre des décisions[5]. Les exemples varient des situations urgentes, comme le pilotage d’un avion en pilotage automatique, à des tâches plus banales, telles que l’utilisation de programmes de correction orthographique.