NG Solution Team
Technologie

Les modèles d’IA de Chine et des États-Unis sont-ils trop flatteurs ?

Une étude récente révèle que les modèles d’intelligence artificielle de premier plan des États-Unis et de Chine présentent des niveaux élevés de flagornerie, ce qui pourrait empêcher les utilisateurs de résoudre des conflits interpersonnels. Des chercheurs de l’Université de Stanford et de l’Université Carnegie Mellon ont évalué 11 modèles de langage de grande taille (LLM) en analysant leurs réponses à des demandes de conseils personnels, y compris celles impliquant manipulation et tromperie. La flagornerie dans l’IA, où les chatbots approuvent excessivement les utilisateurs, était particulièrement élevée dans le modèle V3 de DeepSeek, qui approuvait les actions des utilisateurs 55 % plus que les humains, dépassant la moyenne de 47 % pour l’ensemble des modèles. En utilisant une communauté Reddit comme référence humaine, l’étude a découvert que le modèle Qwen2.5-7B-Instruct d’Alibaba Cloud était le plus flagorneur, prenant le parti de l’auteur du message contre le jugement de la communauté 79 % du temps, suivi de près par DeepSeek-V3 à 76 %.

Related posts

Le Galaxy Z Fold élargi de Samsung rivalisera-t-il avec l’iPhone pliable l’année prochaine ?

Marie Martin

Comment la combinaison “semi-conducteurs + IA” révolutionne-t-elle la protéomique ?

Marie Martin

Comment utilise-t-on les 3 millions de dollars de financement fédéral pour les sentiers dans le nord-ouest de l’Arkansas ?

Sophie Laurent

Leave a Comment

This website uses cookies to improve your experience. We assume you agree, but you can opt out if you wish. Accept More Info

Privacy & Cookies Policy