Accéder directement au contenu de la page Accéder à la navigation principale Accéder à la recherche

L’intelligence artificielle est une technologie présentant autant d’opportunités que de risques pour la sphère de la cybersécurité. Evaluer ses avantages et ses limites est le meilleur moyen de lutter efficacement contre la cybercriminalité.

L’évolution rapide de l’intelligence artificielle (IA) impacte la cybersécurité d’une manière qu’il nous faut impérativement comprendre. Avec l’introduction de Large Language Models (LLM) tels que ChatGPT et la prolifération de modèles open source, de nouvelles opportunités s’offrent aux spécialistes informatiques… et aux cybercriminels.

L’un des avantages des LLM réside dans les gains en termes d’efficacité liés à l’analyse par l’IA d’ensembles de données massifs pour détecter les menaces potentielles. Une tâche qui aurait traditionnellement pris des heures, voire des jours, peut désormais se faire en quelques minutes voire secondes.

Cette technologie est également exploitée pour créer des techniques de plus en plus sophistiquées en matière d’analyse des modèles de menaces, de reconnaissance des comportements anormaux dans les portails d’accès au système, de simulations améliorées de violations et d’attaques, etc.

Les humains et l’IA doivent travailler main dans la main pour lutter contre la cybercriminalité.

Les modèles GenAI (IA générative) peuvent être entraînés pour recommander des correctifs pour un code non sécurisé, générer du matériel de formation pour les équipes de sécurité et identifier les mesures permettant de réduire l’impact des menaces, au-delà de la simple détection des vulnérabilités.

Des risques à ne pas négliger

Cependant, toute technologie de rupture présente également des inconvénients. L’arsenal standard utilisé pour combattre et prévenir les cyberattaques ne suffit plus. Les hackers ont désormais accès à des outils vidéo et vocaux génératifs, augmentant la sophistication des attaques d’ingénierie sociale.

Une autre préoccupation importante est la capacité de cybercriminels amateurs à pouvoir désormais exploiter les vulnérabilités des systèmes d’IA pour manipuler leur comportement. S’ils ne sont pas correctement sécurisés, les modèles d’IA peuvent être trompés ou manipulés, entraînant des actions indésirables de la part de ces mêmes modèles. Ce type d’ingénierie malveillante peut conduire certaines personnes à acquérir, par exemple, des données sensibles précédemment partagées avec les LLM via les requêtes d’autres personnes.

Par ailleurs, le développement de chatbots génératifs d’IA comme WormGPT, FraudGPT et DarkBERT peuvent aider certains de leurs utilisateurs à créer leurs propres cyberattaques sans pour autant avoir de connaissances informatiques approfondies. Cybersecurity Ventures prédit ainsi que la cybercriminalité coûtera 10 500 milliards de dollars par an d’ici 2025 (contre 3 000 milliards en 2015). Cela équivaut à environ un tiers de tous les euros actuellement en circulation.

Enfin, en créant une trop grande dépendance à l’égard de l’IA, ces nouveaux outils peuvent conduire à un relâchement des professionnels de la sécurité. Tout comme la calculatrice a aujourd’hui remplacé les calculs écrits dans les cours de mathématiques, il existe également le risque que les organisations remplacent le jugement humain par des systèmes d’IA.

Pourtant, les humains apportent un niveau de conscience de la situation, de compréhension contextuelle et d’intuition qui manque encore aux machines. Et contrairement à la calculatrice, ces systèmes d’IA peuvent fournir des informations erronées.

Contre-mesures robustes et approche proactive

Il est donc nécessaire de mettre en œuvre des contre-mesures robustes face à ces menaces. Cela implique d’examiner, réviser et sécuriser les modèles actuels et futurs ainsi que les données sur lesquelles ils sont entraînés, d’investir dans l’éducation et la formation des professionnels de la cybersécurité sur les capacités et les limites de l’IA afin de garantir un juste équilibre entre l’expertise humaine et l’automatisation de l’IA, et d’assurer une surveillance continue des comportements déviants dans les modèles d’IA.

Les experts en cybersécurité devraient collaborer davantage avec les développeurs en IA pour relever les défis en matière de sécurité. Il faudrait également enquêter sur le déploiement fiable et sécurisé des technologies de l’IA dans divers domaines. Une approche proactive et bien informée sera l’arme la plus puissante contre la cybercriminalité basée sur l’IA.

21/05/2024

Julia Himmelsbach,

Team Lead Advanced Analytics & AI chez Axians ICT Austria