Dans cet entretien, Elie Bursztein, expert en intelligence artificielle et cybersécurité chez Google, discute des menaces actuelles posées par les modèles de langage malveillants. Il met en lumière les nouvelles évolutions du phishing et les défis des deep fakes. Bursztein aborde les enjeux de sécurité de la supply chain et les impacts de l'IA sur la fraude. Il souligne l'importance d'une régulation pour contrer l'utilisation nuisible de ces technologies et insiste sur la nécessité de maintenir des pratiques de sécurité robustes face à l'automatisation croissante.
L'intelligence artificielle transforme la cybersécurité en offrant des applications offensives pour tester la sécurité des systèmes et des applications défensives pour protéger les technologies modernes.
Les grands modèles de langage sont détournés à des fins malveillantes, notamment pour créer des emails de phishing sophistiqués, accentuant les risques posés par le marché noir.
L'émergence des deepfakes présente un défi de confiance majeur, nécessitant le développement d'outils de détection pour prévenir des abus et manipulations potentiels.
Deep dives
Introduction à l'intelligence artificielle et cybersécurité
L'intelligence artificielle (IA) est un outil puissant qui révolutionne la cybersécurité en offrant à la fois des applications offensives et défensives. Eli Birstein, expert chez Google DeepMind, partage ses expériences en utilisant l'IA pour tester la sécurité des systèmes, en commençant par des méthodes offensives pour exploiter des failles. L'utilisation de l'IA pour renforcer la sécurité, comme sécuriser Gmail et RecapChat, illustre son potentiel dans la protection des technologies modernes. L'évolution de l'IA dans ce domaine démontre la nécessité d'une approche équilibrée entre l'attaque et la défense.
Les menaces liées aux grands modèles de langage (LLM)
Les grands modèles de langage (LLM) sont de plus en plus utilisés à des fins malveillantes, notamment pour créer des emails de phishing sophistiqués. Eli souligne l'émergence d'un marché noir où ces modèles sont loués ou vendus, ce qui soulève des inquiétudes concernant leur accessibilité aux cybercriminels. Un aspect alarmant est l'utilisation des LLM pour des attaques de spear phishing, qui ciblent spécifiquement des individus en exploitant des informations personnelles. Cela souligne la nécessité pour les professionnels de la cybersécurité de rester vigilants face à ces nouvelles méthodes d'attaque.
Deepfakes et désinformation en cybersécurité
L'utilisation croissante des deepfakes représente une nouvelle menace pour la cybersécurité et la confiance publique, en permettant de créer des faux visages et voix à des fins trompeuses. Eli évoque un incident où un employé a été dupé par un deepfake en direct, mettant en lumière les défis de confiance associés à l’audio et à la vidéo. Les exemples de deepfakes, comme celui de Zelensky, montrent que ces technologies peuvent être utilisées pour manipuler l'opinion publique et compromettre des systèmes critiques. Par conséquent, il devient crucial de développer des outils capables de détecter ces falsifications avant qu'elles ne causent des dommages réels.
La sécurité des chaînes d'approvisionnement et des modèles IA
La sécurité des chaînes d'approvisionnement dans le contexte de l'IA est une préoccupation croissante, car des modèles mal sécurisés peuvent être facilement compromis. Eli explique que les vulnérabilités des modèles IA peuvent être exploitées de la même manière que les failles de sécurité traditionnelles. La nécessité de signatures numériques pour vérifier l'intégrité des modèles est mise en avant, afin de s'assurer qu'ils n'ont pas été altérés avant leur utilisation. Un cadre de sécurité robuste est essentiel pour garantir la confiance dans les applications de l'IA et prévenir les abus potentiels.
L'avenir de la cybersécurité avec l'IA
L'intégration de l'IA dans la cybersécurité offre des opportunités d'amélioration des défenses, mais elle comporte également des défis importants. Eli explique que l'IA peut accélérer l'analyse des incidents et optimiser les réponses, tout en posant des questions sur la fiabilité et la responsabilité des décisions prises par des systèmes basés sur l'IA. La gestion des erreurs générées par les LLM dans des contextes critiques est une question centrale, car même de petites erreurs peuvent avoir des conséquences substantielles. En conclusion, il est vital que les professionnels de la cybersécurité s'engagent activement avec l'IA pour mieux anticiper et contrer les futures menaces.