Google a récemment été la cible d’une cyberattaque majeure au cours de laquelle l’intelligence artificielle a été utilisée pour découvrir une faille logicielle critique inconnue de ses développeurs. Bien que l’attaque ait finalement été déjouée, l’incident a mis en lumière la technologie avancée qui la sous-tendait. Les pirates ont exploité un modèle d’IA pour identifier une vulnérabilité de type “zero-day”, un défaut précédemment inconnu qui permet aux attaquants de causer des dommages avant que les développeurs ne puissent réagir. Cette vulnérabilité particulière aurait pu contourner l’authentification à deux facteurs sur un outil populaire d’administration web en open source, posant un risque considérable si les attaquants avaient eu accès aux identifiants des utilisateurs. Les chercheurs de Google ont décrit cet événement comme le premier cas d’exploitation de type “zero-day” développé par IA, soulignant les menaces croissantes en matière de cybersécurité posées par l’intelligence artificielle. L’incident a intensifié les inquiétudes concernant l’impact de l’IA sur la cybersécurité, notamment après la sortie du modèle Claude Mythos d’Anthropic, capable d’identifier des vulnérabilités dans les principaux systèmes d’exploitation et navigateurs. La capacité de l’IA à écrire et analyser du code progresse rapidement, suscitant des alarmes parmi les experts en sécurité et les dirigeants gouvernementaux.

