Une nouvelle étude révèle que l'IA rend les humains moins capables de penser de manière critique
L’intelligence artificielle (IA) pourrait nous rendre moins intelligents, suggère une nouvelle étude, en obligeant les humains à s’appuyer sur le « transfert cognitif » et en perdant progressivement d’importantes compétences de pensée critique.
Une nouvelle étude publiée dans la revue universitaire internationale suisse Societies a exploré comment la dépendance croissante des humains aux outils d'IA peut altérer leurs capacités de pensée critique, notamment par le biais du phénomène de « transfert cognitif ».
Cette recherche met en évidence de profondes implications pour les professionnels des domaines à haut risque, tels que le droit et la science médico-légale, où une dépendance excessive à la technologie peut conduire à des erreurs aux conséquences graves.

Le délestage cognitif désigne la pratique consistant à s'appuyer sur des technologies telles que l'IA pour stocker, traiter ou exécuter des fonctions cognitives auparavant réalisées par les humains seuls, comme la mémoire, l'analyse ou la prise de décision. Cela peut entraîner une réduction du rôle de l'intelligence individuelle dans ces activités.
L'utilisation de l'IA par les avocats et les témoins experts dans le cadre juridique devient une tendance courante. Cependant, elle présente également de nombreux risques lorsque les outils d'IA sont utilisés sans surveillance ni vérification adéquates.
Cette nouvelle recherche met davantage en lumière ces risques, en soulignant comment la commodité apportée par l’IA peut progressivement dégrader la qualité de la prise de décision humaine et les capacités d’analyse critique.
Résultats de la recherche sur le phénomène de « transition »« charge cognitive » et impact de l'IA
L'étude a interrogé 666 participants issus de milieux démographiques divers afin d'évaluer l'impact des outils d'IA sur l'esprit critique. Les principaux résultats de l'étude sont les suivants :
Transfert cognitif :Les personnes qui utilisent régulièrement l’IA ont tendance à sous-traiter les tâches intellectuelles à la technologie, en s’appuyant sur l’IA pour résoudre les problèmes et prendre des décisions, plutôt que de pratiquer activement une pensée critique indépendante.
Déclin des compétences :Au fil du temps, les personnes qui dépendent fortement des outils d’IA perdent progressivement la capacité d’évaluer de manière critique les informations et de tirer des conclusions réfléchies, ce qui reflète un déclin de la pensée critique.
Fossé des générations :Les jeunes ont tendance à s’appuyer davantage sur les outils d’IA que les groupes plus âgés, ce qui soulève des inquiétudes quant aux implications à long terme pour l’expertise et le jugement des futurs professionnels.

Les chercheurs avertissent que même si l’IA peut optimiser les flux de travail et augmenter la productivité, une dépendance excessive à la technologie peut conduire à un « manque de connaissances », laissant les utilisateurs incapables de vérifier ou de contester les résultats générés par l’IA.
Lorsque les experts font aveuglément confiance aux résultats de l’IA sans vérifier leur exactitude, ils peuvent commettre par inadvertance de graves erreurs, compromettre des dossiers, nuire à la réputation et éroder la confiance dans leur expertise.
Toute profession qui requiert du jugement et des connaissances approfondies peut être victime d’un « transfert cognitif », comme l’a montré une étude récente.
Sans une surveillance humaine minutieuse, les outils d’IA peuvent non seulement améliorer les flux de travail, mais aussi compromettre les normes d’excellence que les professionnels sont censés maintenir.
Des domaines tels que le droit, les assurances et la science médico-légale, qui s’appuient sur l’expertise humaine, sont confrontés à la fois aux avantages potentiels et aux défis imprévus de l’IA.
Recherche par similaritésur la manière dont l'IA est appliquée dans les domaines du droit et de la science médico-légale
Bien que l’IA puisse être une aide précieuse dans l’analyse des données ou la préparation des dossiers, on craint de plus en plus que les professionnels et les avocats ne deviennent trop dépendants de ces outils sans tester en profondeur leur exactitude.
Lorsque les professionnels des domaines juridique ou médico-légal accordent trop de confiance à l’IA, ils sont confrontés à des risques potentiels inévitables.
Données non vérifiées :Les outils d’IA peuvent produire des résultats qui semblent raisonnables mais qui sont inexacts, comme cela a été démontré dans des cas où de fausses preuves ou des calculs erronés ont été introduits dans des procédures judiciaires.
Déclin professionnel :Au fil du temps, déléguer régulièrement des tâches complexes à l’IA pourrait progressivement miner les compétences importantes nécessaires pour évaluer ou remettre en question de manière critique et critique les preuves.
Responsabilité réduite :Une confiance aveugle dans l’IA conduit à un manque de responsabilité personnelle, créant un précédent dangereux où les erreurs sont facilement négligées ou ignorées.
IA et expertise humaine : un équilibre est nécessaire
Le principal enseignement des deux études est que l'IA doit être considérée comme un outil améliorant les capacités humaines, plutôt que de les remplacer complètement. Pour maintenir cet équilibre, les études suggèrent que :
Compétencel'humain est le fondement :Les connaissances et l'expertise humaines doivent toujours être à la base de la prise de décision. Les résultats générés par l'IA doivent être vérifiés par des experts qualifiés et replacés dans le contexte approprié.

La pensée critique est un élément indispensable :Les utilisateurs doivent s’engager activement dans l’analyse et la critique des données générées par l’IA, en posant des questions sur la validité des données et en explorant des interprétations alternatives.
Une réglementation et une formation spécialisée sont requises :À mesure que l’IA devient de plus en plus répandue, les industries doivent établir des normes strictes pour l’adoption de la technologie et s’assurer que les professionnels sont bien formés et comprennent à la fois le potentiel et les limites de l’IA.
Que ce soit dans les tâches quotidiennes ou dans des domaines à haut risque tels que le droit et la science médico-légale, l’élément humain reste essentiel pour garantir l’exactitude, la responsabilité et l’intégrité éthique.
Sans une surveillance adéquate et une implication humaine critique, nous pouvons saper les normes professionnelles et la confiance que les professionnels sont censés respecter.