مع التطور السريع لتكنولوجيا الذكاء الاصطناعي، تواجه شركات التقنية مسؤولية ملحة تتعلق بحماية الأطفال في العصر الرقمي. يشكل صعود الذكاء الاصطناعي التوليدي مخاطر كبيرة، خاصة فيما يتعلق بسلامة الأطفال على الإنترنت. تسلط الدكتورة ريبيكا بورتنوف من مؤسسة ثورن الضوء على إحصائيات مقلقة: زيادة كبيرة في مواد استغلال الأطفال جنسياً على مدى عقدين، وتكرار طلب صور غير لائقة من القُصّر، والعديد من تقارير الابتزاز الجنسي. يمكن إساءة استخدام الذكاء الاصطناعي لإنشاء وتعديل محتوى ضار، مما يجعل من الضروري لشركات التقنية تنفيذ تدابير حماية.
تقود مؤسسة ثورن الجهود من خلال إطار عمل “السلامة في التصميم”، الذي اعتمدته منصات مثل سلاك، باتريون، وفيميو، بالإضافة إلى عمالقة التكنولوجيا مثل أوبن أيه آي. يركز هذا الإطار على ثلاثة مبادئ: تطوير نماذج ذكاء اصطناعي مع التركيز على سلامة الأطفال، ونشرها فقط بعد تقييمات سلامة صارمة، والحفاظ على اليقظة المستمرة ضد التهديدات الناشئة. يتطلب السرعة في التقدم التكنولوجي من الشركات دمج تدابير السلامة مباشرة في نماذج الذكاء الاصطناعي لمنع إساءة استخدامها من قبل الجهات السيئة.
في حين أن إرشادات ثورن تستهدف بشكل أساسي المطورين، فإنها تقدم أيضًا موارد للآباء، بما في ذلك نصائح لبدء المحادثات ونصائح للسلامة. ومع استمرار مؤتمر الذكاء الاصطناعي، يبقى التركيز على خلق بيئة رقمية أكثر أمانًا للأطفال.

