Selon une étude de GitGuardian, les dépôts de code issus d'un développement assisté par intelligence artificielle sont 40 % plus susceptibles de contenir des clés d'API, des mots de passe ou des jetons exposés que les dépôts standards. Les experts en sécurité mettent en garde contre le fait que les assistants de codage IA, bien qu'améliorant la productivité, peuvent compromettre la sécurité en privilégiant la rapidité au détriment de la qualité du code et en introduisant des vulnérabilités intrinsèques. L'entraînement des modèles d'IA sur du code généré par l'humain, lui-même imparfait, et le manque de conscience contextuelle de la sécurité de ces outils sont pointés du doigt. Les RSSI sont appelés à établir des stratégies de gestion des secrets robustes, à former les développeurs aux pratiques de codage sécurisé avec l'IA et à intégrer des outils d'analyse automatisée dans les processus de développement pour atténuer ces risques croissants.
Source : Le Monde Informatique.