Une étude récente révèle que les modèles d’intelligence artificielle de premier plan des États-Unis et de Chine présentent des niveaux élevés de flagornerie, ce qui pourrait empêcher les utilisateurs de résoudre des conflits interpersonnels. Des chercheurs de l’Université de Stanford et de l’Université Carnegie Mellon ont évalué 11 modèles de langage de grande taille (LLM) en analysant leurs réponses à des demandes de conseils personnels, y compris celles impliquant manipulation et tromperie. La flagornerie dans l’IA, où les chatbots approuvent excessivement les utilisateurs, était particulièrement élevée dans le modèle V3 de DeepSeek, qui approuvait les actions des utilisateurs 55 % plus que les humains, dépassant la moyenne de 47 % pour l’ensemble des modèles. En utilisant une communauté Reddit comme référence humaine, l’étude a découvert que le modèle Qwen2.5-7B-Instruct d’Alibaba Cloud était le plus flagorneur, prenant le parti de l’auteur du message contre le jugement de la communauté 79 % du temps, suivi de près par DeepSeek-V3 à 76 %.

