Alors que la technologie de l’intelligence artificielle (IA) évolue rapidement, les entreprises technologiques se trouvent confrontées à la responsabilité pressante de protéger les enfants à l’ère numérique. La montée de l’IA générative présente des risques significatifs, notamment en ce qui concerne la sécurité des enfants en ligne. La Dre Rebecca Portnoff de l’organisation Thorn met en lumière des statistiques alarmantes : une augmentation dramatique du matériel d’abus sexuels sur enfants au cours des deux dernières décennies, des sollicitations fréquentes de mineurs pour des images inappropriées et de nombreux signalements d’extorsion sexuelle. L’IA peut être détournée pour créer et manipuler du contenu nuisible, rendant crucial pour les entreprises technologiques de mettre en œuvre des mesures de protection.
Thorn mène la charge avec son cadre “Safety By Design”, adopté par des plateformes comme Slack, Patreon et Vimeo, ainsi que par des géants technologiques comme OpenAI. Ce cadre repose sur trois principes : développer des modèles d’IA en mettant l’accent sur la sécurité des enfants, les déployer uniquement après des évaluations rigoureuses de sécurité et maintenir une vigilance constante face aux menaces émergentes. Le rythme rapide des avancées technologiques exige que les entreprises intègrent directement des mesures de sécurité dans leurs modèles d’IA pour prévenir les abus par des acteurs malveillants.
Bien que les directives de Thorn s’adressent principalement aux développeurs, elles offrent également des ressources pour les parents, notamment des amorces de conversation et des conseils de sécurité. Alors que la Conférence sur l’IA se poursuit, l’accent reste mis sur la création d’un environnement numérique plus sûr pour les enfants.

