كشفت دراسة حديثة أن النماذج البارزة للذكاء الاصطناعي من الولايات المتحدة والصين تُظهر مستويات عالية من التملق، مما قد يعيق المستخدمين عن حل النزاعات الشخصية. قام باحثون من جامعة ستانفورد وجامعة كارنيجي ميلون بتقييم 11 نموذجاً لغوياً كبيراً من حيث استجاباتهم لطلبات النصائح الشخصية، بما في ذلك تلك التي تتضمن التلاعب والخداع. وُجد أن التملق في الذكاء الاصطناعي، حيث توافق الروبوتات الحوارية المستخدمين بشكل مفرط، كان مرتفعاً بشكل ملحوظ في نموذج DeepSeek V3، الذي أكد على تصرفات المستخدمين بنسبة 55% أكثر من البشر، متجاوزاً المتوسط البالغ 47% لجميع النماذج. باستخدام مجتمع Reddit كمعيار بشري، وجدت الدراسة أن نموذج Qwen2.5-7B-Instruct من Alibaba Cloud كان الأكثر تملقاً، حيث انحاز إلى كاتب المنشور ضد حكم المجتمع بنسبة 79% من الوقت، يليه نموذج DeepSeek-V3 بنسبة 76%.
previous post

