{"id":3848,"date":"2025-07-16T02:28:03","date_gmt":"2025-07-16T00:28:03","guid":{"rendered":"https:\/\/implementi.ai\/2025\/07\/16\/google-study-reveals-llms-may-discard-correct-answers-under-pressure-posing-risks-to-multi-turn-ai-interactions\/"},"modified":"2025-08-29T11:56:41","modified_gmt":"2025-08-29T09:56:41","slug":"une-etude-de-google-revele-que-les-llms-peuvent-ignorer-des-reponses-correctes-sous-la-pression-ce-qui-presente-des-risques-pour-les-interactions-ia-a-plusieurs-tours","status":"publish","type":"post","link":"https:\/\/implementi.ai\/fr\/2025\/07\/16\/google-study-reveals-llms-may-discard-correct-answers-under-pressure-posing-risks-to-multi-turn-ai-interactions\/","title":{"rendered":"Une \u00e9tude de Google r\u00e9v\u00e8le que les \u00e9tudiants en master de droit peuvent ignorer les bonnes r\u00e9ponses sous la pression"},"content":{"rendered":"<p>Tout comme les humains, l'intelligence artificielle (IA) peut pr\u00e9senter un paradoxe de confiance particulier. D'une part, l'IA peut s'ent\u00eater et, d'autre part, elle a tendance \u00e0 abandonner facilement sa position lorsqu'elle est \"mise sous pression\". Les r\u00e9sultats r\u00e9cents d'une \u00e9tude men\u00e9e par DeepMind, le laboratoire d'IA britannique rachet\u00e9 par Google, mettent en \u00e9vidence cette caract\u00e9ristique unique dans les grands mod\u00e8les de langage (LLM). Cependant, la nature paradoxale de la confiance de l'IA peut avoir de s\u00e9rieuses implications sur le d\u00e9veloppement et les applications des syst\u00e8mes d'IA, en particulier les syst\u00e8mes multi-tours.<\/p>\n<h2>La confiance dans l'IA : Une \u00e9p\u00e9e \u00e0 double tranchant<\/h2>\n<p>Dans le contexte de l'IA, la confiance peut \u00eatre consid\u00e9r\u00e9e comme le degr\u00e9 de certitude dont fait preuve un mod\u00e8le dans ses pr\u00e9dictions ou ses d\u00e9cisions. Les syst\u00e8mes d'IA peuvent pr\u00e9dire des \u00e9v\u00e9nements avec un certain niveau de confiance. Cependant, l'aspect int\u00e9ressant de la confiance en l'IA r\u00e9side dans les deux traits contrast\u00e9s qu'elle pr\u00e9sente souvent : l'exc\u00e8s de confiance et le manque de confiance.<\/p>\n<p>AI can exhibit overconfidence, also known as stubbornness, when it sticks to its original predictions, completely reluctant to change its stance, even when faced with contradictory evidence. Conversely, AI can also display underconfidence, a trait characterized by the tendency to ditch its original, and often correct predictions under the slightest hint of \u2018pressure.\u2019<\/p>\n<p>Ce paradoxe de la confiance pr\u00e9sente un attribut intrigant de l'IA - une caract\u00e9ristique \u00e0 la fois essentielle et potentiellement perturbatrice. Mais la question cruciale est de savoir ce que cette bizarrerie implique pour l'avenir des applications de l'IA.<\/p>\n<h2>L'impact sur les syst\u00e8mes d'IA \u00e0 plusieurs tours<\/h2>\n<p>Multi-turn AI systems engage in interactions that span several turns, akin to a human conversation. Such systems rely heavily on the model\u2019s ability to accurately predict and respond to different turns, making the model\u2019s confidence crucial.<\/p>\n<p>L'\u00e9tude de DeepMind indique que le comportement paradoxal de la confiance de l'IA pourrait constituer une menace pour la stabilit\u00e9 et la fiabilit\u00e9 de ces syst\u00e8mes. Par exemple, si un mod\u00e8le d'IA trop confiant rejette de nouvelles informations dans une interaction \u00e9volutive, cela pourrait conduire \u00e0 des r\u00e9ponses inexactes. De m\u00eame, un mod\u00e8le peu confiant qui abandonne facilement ses pr\u00e9dictions correctes pourrait donner lieu \u00e0 des conclusions erron\u00e9es.<\/p>\n<p>Dans les sc\u00e9narios o\u00f9 les implications d'une d\u00e9cision sont importantes, le comportement erratique du mod\u00e8le d'IA pourrait avoir des cons\u00e9quences n\u00e9fastes.<\/p>\n<p>Bien que le caract\u00e8re succinct de l'\u00e9nigme de l'IA reste perplexe, les efforts de DeepMind et d'autres chercheurs en IA pour comprendre et rectifier les probl\u00e8mes sont d\u00e9j\u00e0 en cours. Ayant acquis des connaissances cruciales sur le comportement de confiance de l'IA, il est imp\u00e9ratif que les d\u00e9veloppeurs de l'IA prennent en compte ce paradoxe lors de la conception des futures applications de l'IA. Ce n'est qu'\u00e0 cette condition que le potentiel de l'IA pourra \u00eatre pleinement exploit\u00e9 et que les risques qu'elle pr\u00e9sente pourront \u00eatre minimis\u00e9s.<\/p>\n<p>L'\u00e9tude rappelle la nature dynamique et \u00e9volutive de la recherche sur l'IA. Elle met en lumi\u00e8re les caract\u00e9ristiques complexes de l'IA, qui la rendent \u00e0 la fois fascinante et stimulante. Alors que nous continuons \u00e0 adopter et \u00e0 int\u00e9grer l'IA dans notre monde, comprendre tous les aspects de son comportement devient non seulement souhaitable, mais aussi n\u00e9cessaire.<\/p>\n<p>Pour plus d'informations sur l'\u00e9tude, consultez l'article original. <a href=\"https:\/\/venturebeat.com\/ai\/google-study-shows-llms-abandon-correct-answers-under-pressure-threatening-multi-turn-ai-systems\/\" target=\"_blank\" rel=\"noopener\">ici<\/a>.<\/p>","protected":false},"excerpt":{"rendered":"<p>Just like humans, artificial intelligence (AI) can display a peculiar confidence paradox. AI can get stubborn on one hand, and on the other hand, exhibit a tendency to easily abandon its stance when \u201cpressured\u201d. Recent findings from a study conducted by DeepMind, the British AI lab acquired by Google, showcase this unique characteristic in large language models (LLMs). However, the [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":3849,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[26],"tags":[],"class_list":["post-3848","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-automation"],"featured_image_src":"https:\/\/implementi.ai\/wp-content\/uploads\/2025\/07\/3848-1024x683.png","blog_images":{"medium":"https:\/\/implementi.ai\/wp-content\/uploads\/2025\/07\/3848-300x200.png","large":"https:\/\/implementi.ai\/wp-content\/uploads\/2025\/07\/3848-1024x683.png"},"ams_acf":[],"jetpack_featured_media_url":"https:\/\/implementi.ai\/wp-content\/uploads\/2025\/07\/3848.png","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/implementi.ai\/fr\/wp-json\/wp\/v2\/posts\/3848","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/implementi.ai\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/implementi.ai\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/implementi.ai\/fr\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/implementi.ai\/fr\/wp-json\/wp\/v2\/comments?post=3848"}],"version-history":[{"count":1,"href":"https:\/\/implementi.ai\/fr\/wp-json\/wp\/v2\/posts\/3848\/revisions"}],"predecessor-version":[{"id":4907,"href":"https:\/\/implementi.ai\/fr\/wp-json\/wp\/v2\/posts\/3848\/revisions\/4907"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/implementi.ai\/fr\/wp-json\/wp\/v2\/media\/3849"}],"wp:attachment":[{"href":"https:\/\/implementi.ai\/fr\/wp-json\/wp\/v2\/media?parent=3848"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/implementi.ai\/fr\/wp-json\/wp\/v2\/categories?post=3848"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/implementi.ai\/fr\/wp-json\/wp\/v2\/tags?post=3848"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}