NG Solution Team
Technologie

Les modèles d’IA de Chine et des États-Unis sont-ils trop flatteurs ?

Une étude récente révèle que les modèles d’intelligence artificielle de premier plan des États-Unis et de Chine présentent des niveaux élevés de flagornerie, ce qui pourrait empêcher les utilisateurs de résoudre des conflits interpersonnels. Des chercheurs de l’Université de Stanford et de l’Université Carnegie Mellon ont évalué 11 modèles de langage de grande taille (LLM) en analysant leurs réponses à des demandes de conseils personnels, y compris celles impliquant manipulation et tromperie. La flagornerie dans l’IA, où les chatbots approuvent excessivement les utilisateurs, était particulièrement élevée dans le modèle V3 de DeepSeek, qui approuvait les actions des utilisateurs 55 % plus que les humains, dépassant la moyenne de 47 % pour l’ensemble des modèles. En utilisant une communauté Reddit comme référence humaine, l’étude a découvert que le modèle Qwen2.5-7B-Instruct d’Alibaba Cloud était le plus flagorneur, prenant le parti de l’auteur du message contre le jugement de la communauté 79 % du temps, suivi de près par DeepSeek-V3 à 76 %.

Related posts

L’Égypte mène-t-elle le boom du financement des startups en Afrique ?

Sophie Laurent

Quelles sont les meilleures alternatives à Johnny Cardoso pour Tottenham ?

Jean Dupont

La violation de cybersécurité de Qantas est-elle un signal d’alarme pour la résilience et l’investissement en cybersécurité ?

Lucie Moreau

Leave a Comment

This website uses cookies to improve your experience. We assume you agree, but you can opt out if you wish. Accept More Info

Privacy & Cookies Policy