L'Intelligence Artificielle (IA) entraîne des changements majeurs dans notre façon de vivre et de travailler. Il y a tant de choses à dire quant à l'impact de l'IA dans des secteurs comme la santé, la finance, l'éducation, le commerce, le transport ou l'énergie, mais dans cet article nous nous concentrerons exclusivement sur la cybersécurité.
D'un côté de la barricade, il y a les acteurs malveillants (ou hackers) qui multiplient les cyberattaques sur différentes cibles, notamment les entreprises, dans une tentative délibérée de causer des dommages. De l'autre côté, il y a les experts en cybersécurité qui tentent de prévenir ou d'atténuer ces menaces. Les deux camps exploitent l'Intelligence Artificielle pour prendre l'avantage. Alors… qui est en train de gagner ?
“L’IA offensive évolue plus rapidement que l'IA défensive en raison de sa nature opportuniste et sans restriction. Il n'y a ni règles, ni limites. Les acteurs malveillants peuvent utiliser absolument tout pour exploiter des failles, accéder à des données non autorisées ou manipuler des individus en les incitant à agir d'une certaine manière. L'IA défensive, bien qu’en constante évolution, est encadrée par des lois et des réglementations en matière de protection des données, ce qui ralentit son développement en raison des exigences de conformité et des processus réglementaires", explique Omar Jellouli, analyste en sécurité de l'information.
Les cybercriminels exploitent rapidement toute vulnérabilité en utilisant la créativité de l’IA pour générer des malwares polymorphes, automatiser le phishing et même simuler des deepfakes réalistes. Par exemple, l’IA offensive peut utiliser des modèles génératifs pour rédiger des e-mails imitant des contacts de confiance ou insérer des déclencheurs subtils permettant de contourner ultérieurement les protections d'un modèle.
Les experts en cybersécurité exploitent l'IA de manière défensive à deux niveaux : prévention et atténuation. Comme l'explique Omar : "C’est comme dans n'importe quel autre domaine : la police tente d'empêcher les criminels de commettre un crime ; les médecins tentent de prévenir les maladies ; et en cybersécurité, nous essayons d'empêcher les cyberattaques avant qu'elles ne surviennent."
Comment y parvient-on ? En collectant des renseignements sur les menaces (threat intelligence) – des données sur les motivations, les cibles et les comportements des cybercriminels – qui améliorent considérablement la précision des outils de prévention.
Les outils défensifs sont également utilisés lors de la réponse aux incidents. "Cependant," précise Omar, "ils reposent souvent sur l'analyse comportementale, ce qui peut entraîner des faux positifs en raison de la variabilité des comportements des utilisateurs ou des systèmes."
Les algorithmes de Machine Learning constituent la base des systèmes d'IA modernes. Une approche courante du ML est l’apprentissage supervisé, où le modèle est entraîné sur des ensembles de données étiquetées avec des entrées et sorties connues. "L’algorithme identifie des modèles et des associations pendant l'entraînement pour faire des prédictions précises. Après l'entraînement, il est testé sur des données inédites pour évaluer sa fiabilité et son efficacité," explique Omar.
Cette méthode est largement utilisée dans :
Un Large Language Model (LLM) est un type de modèle d'apprentissage automatique capable de comprendre, traiter et générer du langage humain. Entraînés sur d'énormes volumes de données textuelles, les LLMs comme ChatGPT, Google Gemini ou Claude sont principalement utilisés en cybersécurité pour l'analyse du renseignement sur les menaces. Ils extraient des Indicateurs de Compromission (IOCs) à partir de flux open-source, de la surveillance du dark web et de rapports de menaces.
Les LLMs contribuent également à :
L'Intelligence Artificielle modifie également la façon dont les services de cybersécurité sont conçus et déployés. "Elle pousse les organisations à repenser leurs architectures de sécurité pour gérer le traitement de données à grande échelle et améliorer la détection ainsi que la réponse aux menaces. Les solutions basées sur le cloud jouent un rôle clé en offrant évolutivité et capacités en temps réel", explique Omar.
Les principaux fournisseurs de cloud, comme Amazon Web Services (AWS), Microsoft Azure et Google Cloud, utilisent leurs propres outils intégrant l’IA pour la détection des menaces (ex. : AWS GuardDuty, Microsoft Defender, Google Chronicle) afin de traiter d'énormes volumes de données en temps réel et d’identifier rapidement les menaces.
Malgré ces avantages, des défis tels que la confidentialité des données et la dépendance au cloud persistent. Toutefois, des solutions existent. "Les architectures hybrides émergent, avec des modèles d'IA entraînés dans le cloud et déployés localement pour une réponse plus rapide", révèle Omar.
L’implémentation d'outils basés sur l’IA en cybersécurité est "non négociable", affirme Omar. "C’est comme les débuts d’Internet. C’est inarrêtable. Nous avons cette relation d’amour-haine avec l’IA qui nous guide, il est donc naturel qu’il y ait des conséquences positives et négatives."
| Empoisonnement des données vs. Attaques par exemples contradictoires | |
| Définitions | Empoisonnement des données : Se produit lorsqu'un attaquant contamine l’ensemble de données d'entraînement, rendant difficile la compréhension de l’influence des données sur le modèle. Par exemple, la modification de valeurs dans une base de données financières pourrait entraîner des erreurs de calcul. Attaques par exemples contradictoires : Manipulent un modèle – soit pendant l'entraînement, soit après – en modifiant subtilement les entrées. Par exemple, un véhicule autonome pourrait mal interpréter un panneau STOP si des adversaires altèrent son apparence. |
| Solutions | Entraînement contradictoire : Renforce les modèles d’IA contre les entrées manipulées.Pipelines de validation des données : Filtrent et détectent les données malveillantes avant qu'elles n’atteignent le système d’IA.Vérifications de l’intégrité du modèle : Vérifient régulièrement que les systèmes d’IA fonctionnent comme prévu.Contrôle d’accès : Restreint l’accès aux systèmes et données critiques d’IA.Mises à jour et correctifs réguliers : Maintiennent la sécurité des solutions d’IA basées sur le cloud.Architectures hybrides d’IA : Conservent les données sensibles sur site pour minimiser l’exposition. |
L’IA est ancrée dans notre futur – il ne fait aucun doute. Mais où allons-nous exactement, et comment l’IA transformera-t-elle spécifiquement la cybersécurité ? Omar Jellouli partage ses prédictions :
En résumé: "L’IA va redéfinir la cybersécurité en devenant une partie intégrante et plus intelligente de la défense des systèmes. Elle ne se contentera pas d’accélérer ou d’améliorer les outils existants – elle créera de nouvelles façons de penser la sécurité", affirme Omar.
Pour maintenir leurs stratégies de cybersécurité à jour, les organisations doivent :
Découvrez quelques événements récents et innovations illustrant la relation entre l’IA et la cybersécurité :
L’intersection entre l’IA et la cybersécurité est une arme à double tranchant. Si l’IA améliore les capacités de détection des menaces et de réponse aux incidents, elle fournit également aux adversaires des outils puissants pour l’hameçonnage automatisé, l’empoisonnement des données et le contournement des modèles de sécurité. Des cas concrets, comme l’exposition de la base de données DeepSeek et la reproduction de DeepSeek R1 pour moins de 30 $, soulignent l’importance de traiter à la fois les vulnérabilités avancées et fondamentales.
Pour relever ces défis, les organisations doivent appliquer des mesures strictes de sécurité des données, surveiller en continu l’émergence de nouvelles menaces, équilibrer l’automatisation par l’IA avec une supervision humaine et garantir la transparence dans la gestion des données.
En intégrant les meilleures pratiques issues de cadres comme le NIST Cybersecurity Framework et l’OWASP Top Ten, les entreprises peuvent renforcer leurs défenses et bâtir un avenir numérique plus sécurisé.
L'Intelligence Artificielle (IA) entraîne des changements majeurs dans notre façon de vivre et de travailler. Il y a tant de choses à dire quant à l'impact de l'IA dans des secteurs comme la santé, la finance, l'éducation, le commerce, le transport ou l'énergie, mais dans cet article nous nous concentrerons exclusivement sur la cybersécurité.
D'un côté de la barricade, il y a les acteurs malveillants (ou hackers) qui multiplient les cyberattaques sur différentes cibles, notamment les entreprises, dans une tentative délibérée de causer des dommages. De l'autre côté, il y a les experts en cybersécurité qui tentent de prévenir ou d'atténuer ces menaces. Les deux camps exploitent l'Intelligence Artificielle pour prendre l'avantage. Alors… qui est en train de gagner ?
“L’IA offensive évolue plus rapidement que l'IA défensive en raison de sa nature opportuniste et sans restriction. Il n'y a ni règles, ni limites. Les acteurs malveillants peuvent utiliser absolument tout pour exploiter des failles, accéder à des données non autorisées ou manipuler des individus en les incitant à agir d'une certaine manière. L'IA défensive, bien qu’en constante évolution, est encadrée par des lois et des réglementations en matière de protection des données, ce qui ralentit son développement en raison des exigences de conformité et des processus réglementaires", explique Omar Jellouli, analyste en sécurité de l'information.
Les cybercriminels exploitent rapidement toute vulnérabilité en utilisant la créativité de l’IA pour générer des malwares polymorphes, automatiser le phishing et même simuler des deepfakes réalistes. Par exemple, l’IA offensive peut utiliser des modèles génératifs pour rédiger des e-mails imitant des contacts de confiance ou insérer des déclencheurs subtils permettant de contourner ultérieurement les protections d'un modèle.
Les experts en cybersécurité exploitent l'IA de manière défensive à deux niveaux : prévention et atténuation. Comme l'explique Omar : "C’est comme dans n'importe quel autre domaine : la police tente d'empêcher les criminels de commettre un crime ; les médecins tentent de prévenir les maladies ; et en cybersécurité, nous essayons d'empêcher les cyberattaques avant qu'elles ne surviennent."
Comment y parvient-on ? En collectant des renseignements sur les menaces (threat intelligence) – des données sur les motivations, les cibles et les comportements des cybercriminels – qui améliorent considérablement la précision des outils de prévention.
Les outils défensifs sont également utilisés lors de la réponse aux incidents. "Cependant," précise Omar, "ils reposent souvent sur l'analyse comportementale, ce qui peut entraîner des faux positifs en raison de la variabilité des comportements des utilisateurs ou des systèmes."
Les algorithmes de Machine Learning constituent la base des systèmes d'IA modernes. Une approche courante du ML est l’apprentissage supervisé, où le modèle est entraîné sur des ensembles de données étiquetées avec des entrées et sorties connues. "L’algorithme identifie des modèles et des associations pendant l'entraînement pour faire des prédictions précises. Après l'entraînement, il est testé sur des données inédites pour évaluer sa fiabilité et son efficacité," explique Omar.
Cette méthode est largement utilisée dans :
Un Large Language Model (LLM) est un type de modèle d'apprentissage automatique capable de comprendre, traiter et générer du langage humain. Entraînés sur d'énormes volumes de données textuelles, les LLMs comme ChatGPT, Google Gemini ou Claude sont principalement utilisés en cybersécurité pour l'analyse du renseignement sur les menaces. Ils extraient des Indicateurs de Compromission (IOCs) à partir de flux open-source, de la surveillance du dark web et de rapports de menaces.
Les LLMs contribuent également à :
L'Intelligence Artificielle modifie également la façon dont les services de cybersécurité sont conçus et déployés. "Elle pousse les organisations à repenser leurs architectures de sécurité pour gérer le traitement de données à grande échelle et améliorer la détection ainsi que la réponse aux menaces. Les solutions basées sur le cloud jouent un rôle clé en offrant évolutivité et capacités en temps réel", explique Omar.
Les principaux fournisseurs de cloud, comme Amazon Web Services (AWS), Microsoft Azure et Google Cloud, utilisent leurs propres outils intégrant l’IA pour la détection des menaces (ex. : AWS GuardDuty, Microsoft Defender, Google Chronicle) afin de traiter d'énormes volumes de données en temps réel et d’identifier rapidement les menaces.
Malgré ces avantages, des défis tels que la confidentialité des données et la dépendance au cloud persistent. Toutefois, des solutions existent. "Les architectures hybrides émergent, avec des modèles d'IA entraînés dans le cloud et déployés localement pour une réponse plus rapide", révèle Omar.
L’implémentation d'outils basés sur l’IA en cybersécurité est "non négociable", affirme Omar. "C’est comme les débuts d’Internet. C’est inarrêtable. Nous avons cette relation d’amour-haine avec l’IA qui nous guide, il est donc naturel qu’il y ait des conséquences positives et négatives."
| Empoisonnement des données vs. Attaques par exemples contradictoires | |
| Définitions | Empoisonnement des données : Se produit lorsqu'un attaquant contamine l’ensemble de données d'entraînement, rendant difficile la compréhension de l’influence des données sur le modèle. Par exemple, la modification de valeurs dans une base de données financières pourrait entraîner des erreurs de calcul. Attaques par exemples contradictoires : Manipulent un modèle – soit pendant l'entraînement, soit après – en modifiant subtilement les entrées. Par exemple, un véhicule autonome pourrait mal interpréter un panneau STOP si des adversaires altèrent son apparence. |
| Solutions | Entraînement contradictoire : Renforce les modèles d’IA contre les entrées manipulées.Pipelines de validation des données : Filtrent et détectent les données malveillantes avant qu'elles n’atteignent le système d’IA.Vérifications de l’intégrité du modèle : Vérifient régulièrement que les systèmes d’IA fonctionnent comme prévu.Contrôle d’accès : Restreint l’accès aux systèmes et données critiques d’IA.Mises à jour et correctifs réguliers : Maintiennent la sécurité des solutions d’IA basées sur le cloud.Architectures hybrides d’IA : Conservent les données sensibles sur site pour minimiser l’exposition. |
L’IA est ancrée dans notre futur – il ne fait aucun doute. Mais où allons-nous exactement, et comment l’IA transformera-t-elle spécifiquement la cybersécurité ? Omar Jellouli partage ses prédictions :
En résumé: "L’IA va redéfinir la cybersécurité en devenant une partie intégrante et plus intelligente de la défense des systèmes. Elle ne se contentera pas d’accélérer ou d’améliorer les outils existants – elle créera de nouvelles façons de penser la sécurité", affirme Omar.
Pour maintenir leurs stratégies de cybersécurité à jour, les organisations doivent :
Découvrez quelques événements récents et innovations illustrant la relation entre l’IA et la cybersécurité :
L’intersection entre l’IA et la cybersécurité est une arme à double tranchant. Si l’IA améliore les capacités de détection des menaces et de réponse aux incidents, elle fournit également aux adversaires des outils puissants pour l’hameçonnage automatisé, l’empoisonnement des données et le contournement des modèles de sécurité. Des cas concrets, comme l’exposition de la base de données DeepSeek et la reproduction de DeepSeek R1 pour moins de 30 $, soulignent l’importance de traiter à la fois les vulnérabilités avancées et fondamentales.
Pour relever ces défis, les organisations doivent appliquer des mesures strictes de sécurité des données, surveiller en continu l’émergence de nouvelles menaces, équilibrer l’automatisation par l’IA avec une supervision humaine et garantir la transparence dans la gestion des données.
En intégrant les meilleures pratiques issues de cadres comme le NIST Cybersecurity Framework et l’OWASP Top Ten, les entreprises peuvent renforcer leurs défenses et bâtir un avenir numérique plus sécurisé.