ChatGPT pourrait déclencher de nouvelles pratiques en cybersécurité
CybersecurityDive commente l’émergence éventuelle de nouvelles pratiques en cybersécurité en raison de l’avènement fracassant du prototype d’agent conversationnel utilisant l’intelligence artificielle générative ChatGPT. Bien qu’elle ne soit qu’à ses débuts, l’aperçu des multiples possibilités de cette technologie a poussé plusieurs fournisseurs à l’intégrer dans leurs produits conçus pour protéger les organisations contre les cyberattaques.
Par exemple, en mars dernier, Microsoft a lancé Security Copilot en ajoutant les outils de GPT-4 à son réseau de sécurité et à ses capacités mondiales de renseignement sur les menaces. Apparemment, Microsoft aurait investi 11 milliards de dollars dans OpenAI, la compagnie de recherche en intelligence artificielle (IA) qui a conçu ChatGPT. De son côté, la société de technologie américaine Cohesity a annoncé la semaine dernière son intention d’outiller ses produits de sécurité des données avec les services de Microsoft et OpenAI pour mieux détecter et classer les menaces.
CybersecurityDive note que ChatGPT et l’IA générative ne trouveront peut-être pas leur place dans toutes les couches de la cybersécurité. Cependant, étant donné que les fournisseurs de sécurité ont intégré l’IA et l’apprentissage automatique dans les produits et les processus de détection des menaces pendant des décennies, on peut anticiper une évolution semblable pour ChatGPT. Ainsi, quoique les percées potentielles de l’IA générative en matière de cybersécurité soient encore en plein développement, on anticipe déjà certains domaines d’applications critiques.
Par exemple, on estime que ChatGPT et l’IA générative devraient renforcer les capacités défensives en aidant au codage et en alertant les organisations quant aux vulnérabilités ou aux erreurs de configuration les plus critiques. Bien entendu, il est à prévoir que les cyberpirates se serviront de cette technologie pour créer des leurres d’hameçonnage apparemment authentiques et vérifier sa capacité à écrire du code malveillant.
En outre, les experts pensent que la technologie ChatGPT pourrait accélérer la conception de nouveaux produits et processus de sécurité. Dans cette perspective, il ne faudrait pas s’attendre à une révolution en matière de cybersécurité, mais plutôt à un effet catalyseur comme résultat de l’intégration de cette technologie dans les cycles de développement de produits.
CybersecurityDive souligne qu’une percée majeure de l’IA générative dans la cybersécurité serait sa contribution à une meilleure conceptualisation et compréhension des données. Apparemment, certains professionnels de la cybersécurité posent déjà des questions à ChatGPT ou incitent l’outil à écrire du code. Cependant, on pense que pour obtenir la véritable valeur de cette nouvelle pratique, il faudrait que ces professionnels soient d’abord capables de poser les questions les plus pertinentes afin de saisir quelles sont les véritables limites de cette technologie.
CybersecurityDive commente l’émergence éventuelle de nouvelles pratiques en cybersécurité en raison de l’avènement fracassant du prototype d’agent conversationnel utilisant l’intelligence artificielle générative ChatGPT. Bien qu’elle ne soit qu’à ses débuts, l’aperçu des multiples possibilités de cette technologie a poussé plusieurs fournisseurs à l’intégrer dans leurs produits conçus pour protéger les organisations contre les cyberattaques.
Par exemple, en mars dernier, Microsoft a lancé Security Copilot en ajoutant les outils de GPT-4 à son réseau de sécurité et à ses capacités mondiales de renseignement sur les menaces. Apparemment, Microsoft aurait investi 11 milliards de dollars dans OpenAI, la compagnie de recherche en intelligence artificielle (IA) qui a conçu ChatGPT. De son côté, la société de technologie américaine Cohesity a annoncé la semaine dernière son intention d’outiller ses produits de sécurité des données avec les services de Microsoft et OpenAI pour mieux détecter et classer les menaces.
CybersecurityDive note que ChatGPT et l’IA générative ne trouveront peut-être pas leur place dans toutes les couches de la cybersécurité. Cependant, étant donné que les fournisseurs de sécurité ont intégré l’IA et l’apprentissage automatique dans les produits et les processus de détection des menaces pendant des décennies, on peut anticiper une évolution semblable pour ChatGPT. Ainsi, quoique les percées potentielles de l’IA générative en matière de cybersécurité soient encore en plein développement, on anticipe déjà certains domaines d’applications critiques.
Par exemple, on estime que ChatGPT et l’IA générative devraient renforcer les capacités défensives en aidant au codage et en alertant les organisations quant aux vulnérabilités ou aux erreurs de configuration les plus critiques. Bien entendu, il est à prévoir que les cyberpirates se serviront de cette technologie pour créer des leurres d’hameçonnage apparemment authentiques et vérifier sa capacité à écrire du code malveillant.
En outre, les experts pensent que la technologie ChatGPT pourrait accélérer la conception de nouveaux produits et processus de sécurité. Dans cette perspective, il ne faudrait pas s’attendre à une révolution en matière de cybersécurité, mais plutôt à un effet catalyseur comme résultat de l’intégration de cette technologie dans les cycles de développement de produits.
CybersecurityDive souligne qu’une percée majeure de l’IA générative dans la cybersécurité serait sa contribution à une meilleure conceptualisation et compréhension des données. Apparemment, certains professionnels de la cybersécurité posent déjà des questions à ChatGPT ou incitent l’outil à écrire du code. Cependant, on pense que pour obtenir la véritable valeur de cette nouvelle pratique, il faudrait que ces professionnels soient d’abord capables de poser les questions les plus pertinentes afin de saisir quelles sont les véritables limites de cette technologie.