La Conférence internationale sur l’apprentissage automatique (ICML), un événement majeur dans le domaine de l’intelligence artificielle, s’attaque à l’utilisation abusive des modèles de langage dans les évaluations de travaux académiques. Certains auteurs ont intégré des incitations cachées dans leurs soumissions, conçues pour manipuler les modèles de langage et obtenir des évaluations favorables. Cette tactique a émergé alors que les évaluateurs s’appuient de plus en plus sur les modèles de langage pour leurs analyses, au lieu de mener des examens personnels approfondis. L’ICML a condamné cette pratique comme une faute scientifique, soulignant que de telles actions sapent l’intégrité du processus de révision par les pairs. L’organisation a mis à jour ses directives éthiques pour interdire explicitement ces incitations cachées, établissant un parallèle avec des pratiques non éthiques telles que la corruption. Ce problème met en lumière un défi croissant dans la communauté de l’IA, alors que l’utilisation abusive des outils d’IA et les tentatives pour les exploiter deviennent plus fréquentes.
previous post

