Une étude explique que beaucoup de gens font trop confiance à ChatGPT, même quand il donne une mauvaise réponse.
Des chercheurs de Wharton ont testé 1372 participants avec des exercices de raisonnement. Parfois, ChatGPT donnait exprès de fausses réponses. Résultat : 8 personnes sur 10 suivaient l’IA sans vérifier. Quand l’IA avait raison, les résultats s’amélioraient, mais quand elle se trompait, les performances devenaient pires que sans aide.
Le plus inquiétant, c’est que les participants étaient plus confiants après avoir consulté l’IA, même lorsqu’elle avait tort. Les chercheurs parlent alors de “reddition cognitive” : au lieu de simplement s’aider de l’IA, les gens abandonnent leur propre jugement.
L’étude conclut que le danger ne vient pas seulement de l’IA, mais du fait qu’elle est très persuasive et facile à suivre. Pour éviter cela, il faudrait pousser les utilisateurs à ralentir, vérifier et réfléchir davantage.
source
Je connais un tour automatique avec ce principe sans bien le comprendre. j'aimerais tenter de développer d'autres applications. Je tente de faire une vidéo du tour que je connais...
Recommended Posts
Rejoins la conversation !
Tu peux publier maintenant et t'enregistrer plus tard. Si tu as un compte, connecte-toi maintenant pour publier avec ton identité.