Les entreprises s’intéressent à l’IA générative pour améliorer leurs cyberdéfenses : Malheureusement les cyberpirates font le même choix
RollCall note que les entreprises adoptent des outils de cybersécurité basés sur l’intelligence artificielle (IA) générative pour se défendre contre les nouvelles cyberattaques utilisant la même technologie. En effet, RollCall nous apprend que peu de temps après l’introduction de ChatGPT, des acteurs malveillants ont lancé FraudGPT. Il s’agirait d’un agent conversationnel, disponible sur le Web clandestin (dark web) et offrant aux criminels la possibilité de créer des courriels d’hameçonnage, de décrypter des mots de passe et même de créer du code et des logiciels malveillants.
Aux dires des experts, cependant, l’utilisation de ChatGPT comme outil de cyberdéfense exigerait des efforts supplémentaires pour protéger, notamment, les données et les algorithmes qui sont au cœur des modèles d’IA générative. Cette préoccupation serait partagée par les législateurs, qui s’inquiéteraient déjà des implications que l’IA peut avoir pour la cybersécurité.
RollCall mentionne qu’en septembre dernier, le président d’une commission du renseignement du Sénat américain, Mark Warner, aurait déclaré que les modèles génératifs pouvaient aider les programmeurs à identifier les erreurs de codage, ce qui contribuerait à améliorer la cybersécurité. En même temps, ces modèles génératifs peuvent aussi facilement aider les cybercriminels.
Ces avertissements semblent pertinents alors que, selon une enquête d’IBM auprès des dirigeants d’entreprise, 84 % des répondants ont déclaré leur préférence pour les solutions de cybersécurité recourant à l’IA générative par rapport aux solutions conventionnelles. Selon les prévisions de l’enquête d’IBM, d’ici 2025, les dépenses de sécurité basées sur l’IA devraient être 116 % plus élevées qu’en 2021.
Par ailleurs, RollCall note que l’Agence pour les projets de recherche avancée de défense du Pentagone (Defense Advanced Research Projects Agency, DARPA) a lancé en août un concours, d’une durée de deux ans, pour concevoir des outils basés sur l’IA capables de corriger les bogues des logiciels couramment utilisés. L’objectif serait de concevoir des systèmes capables de défendre automatiquement tout type de logiciel contre les attaques. Enfin, IBM a annoncé se trouver engagée dans le développement de solutions de cybersécurité basées sur des modèles d’IA générative afin d’augmenter la performance et la productivité des systèmes censés répondre aux cybermenaces.
RollCall constate qu’il y a déjà des entreprises sur le marché qui proposent des outils de cybersécurité fondés sur l’utilisation de l’IA générative. C’est le cas de Darktrace, une société de cybersécurité qui utilise cette technologie pour prédire les attaques potentielles. Plus précisément, cette entreprise conçoit des modèles d’IA d’autoapprentissage qui sont capables de comprendre le comportement de l’environnement dans lequel ils sont déployés. En cartographiant les activités des individus et des groupes de pairs ainsi que les cas aberrants, les systèmes intelligents sont capables de détecter les écarts par rapport à la normale, qui déclenchent une alerte auprès des experts en sécurité.
RollCall note que les entreprises adoptent des outils de cybersécurité basés sur l’intelligence artificielle (IA) générative pour se défendre contre les nouvelles cyberattaques utilisant la même technologie. En effet, RollCall nous apprend que peu de temps après l’introduction de ChatGPT, des acteurs malveillants ont lancé FraudGPT. Il s’agirait d’un agent conversationnel, disponible sur le Web clandestin (dark web) et offrant aux criminels la possibilité de créer des courriels d’hameçonnage, de décrypter des mots de passe et même de créer du code et des logiciels malveillants.
Aux dires des experts, cependant, l’utilisation de ChatGPT comme outil de cyberdéfense exigerait des efforts supplémentaires pour protéger, notamment, les données et les algorithmes qui sont au cœur des modèles d’IA générative. Cette préoccupation serait partagée par les législateurs, qui s’inquiéteraient déjà des implications que l’IA peut avoir pour la cybersécurité.
RollCall mentionne qu’en septembre dernier, le président d’une commission du renseignement du Sénat américain, Mark Warner, aurait déclaré que les modèles génératifs pouvaient aider les programmeurs à identifier les erreurs de codage, ce qui contribuerait à améliorer la cybersécurité. En même temps, ces modèles génératifs peuvent aussi facilement aider les cybercriminels.
Ces avertissements semblent pertinents alors que, selon une enquête d’IBM auprès des dirigeants d’entreprise, 84 % des répondants ont déclaré leur préférence pour les solutions de cybersécurité recourant à l’IA générative par rapport aux solutions conventionnelles. Selon les prévisions de l’enquête d’IBM, d’ici 2025, les dépenses de sécurité basées sur l’IA devraient être 116 % plus élevées qu’en 2021.
Par ailleurs, RollCall note que l’Agence pour les projets de recherche avancée de défense du Pentagone (Defense Advanced Research Projects Agency, DARPA) a lancé en août un concours, d’une durée de deux ans, pour concevoir des outils basés sur l’IA capables de corriger les bogues des logiciels couramment utilisés. L’objectif serait de concevoir des systèmes capables de défendre automatiquement tout type de logiciel contre les attaques. Enfin, IBM a annoncé se trouver engagée dans le développement de solutions de cybersécurité basées sur des modèles d’IA générative afin d’augmenter la performance et la productivité des systèmes censés répondre aux cybermenaces.
RollCall constate qu’il y a déjà des entreprises sur le marché qui proposent des outils de cybersécurité fondés sur l’utilisation de l’IA générative. C’est le cas de Darktrace, une société de cybersécurité qui utilise cette technologie pour prédire les attaques potentielles. Plus précisément, cette entreprise conçoit des modèles d’IA d’autoapprentissage qui sont capables de comprendre le comportement de l’environnement dans lequel ils sont déployés. En cartographiant les activités des individus et des groupes de pairs ainsi que les cas aberrants, les systèmes intelligents sont capables de détecter les écarts par rapport à la normale, qui déclenchent une alerte auprès des experts en sécurité.