كشفت شركة الذكاء الاصطناعي الصينية الناشئة “ديب سيك” عن عمليات تصفية البيانات التي تستخدمها في تدريب نماذجها، مسلطة الضوء على المخاوف المتعلقة بمخاطر “الهلوسة” و”الإساءة” المحتملة. وأكدت الشركة، التي تتخذ من هانغتشو مقراً لها، التزامها بأمن الذكاء الاصطناعي، متماشيةً مع زيادة الرقابة الصناعية في بكين. يتم الحصول على البيانات المستخدمة في التدريب المسبق من المعلومات المتاحة للجمهور والبيانات المصرح بها من قبل أطراف ثالثة، دون نية لجمع البيانات الشخصية. وتستخدم “ديب سيك” مرشحات آلية للقضاء على المحتوى مثل خطاب الكراهية والرسائل غير المرغوب فيها، بينما تعتمد على الكشف الخوارزمي والمراجعة البشرية لمعالجة التحيزات الإحصائية في مجموعات البيانات الكبيرة. وعلى الرغم من الجهود المبذولة لتقليل الهلوسة في النماذج من خلال تقنيات متقدمة، تعترف الشركة بأن هذه المشكلة لا تزال غير قابلة للتجنب. وينصح المستخدمون بالحصول على إرشادات مهنية عند الضرورة، حيث أن النماذج تولد تنبؤات بدلاً من استرجاع إجابات دقيقة.
previous post

