La marchandisation de l'intelligence artificielle fera augmenter les attaques par rançongiciel, préviennent les autorités britanniques
Commentant les conclusions du plus récent rapport du National Cyber Security Centre, du gouvernement britannique, un article de The Record signale que la popularisation des applications d'intelligence artificielle (IA) fera assurément augmenter le nombre et l'impact des cyberattaques par rançongiciel au cours des deux prochaines années.
En effet, à la suite de l'évaluation des informations en provenance d'une multiplicité de sources – des renseignements classifiés, des connaissances de l'industrie, des documents universitaires et des sources ouvertes –, le NCSC a déclaré qu'il était « presque certain » de ses prévisions. Cela correspond à l'indice de confiance le plus élevé utilisé par les analystes du renseignement britanniques.
Selon James Babbage, directeur général des menaces à la National Crime Agency, les rançongiciels représentent une menace pour la sécurité nationale qui, à la lumière du rapport du NCSC, est susceptible d'augmenter dans les années à venir en raison des progrès de l'IA et de l'exploitation de cette technologie par les cybercriminels. De plus, les technologies disruptives réduisent les barrières d'entrée aux activités de collecte illégale d'information des cybercriminels novices tout en améliorant l'ampleur, la vitesse et l'efficacité des méthodes d'attaque existantes.
Bref, l'IA ferait augmenter une menace qui, à l'heure actuelle, est déjà redoutable. The Record note que selon les dernières données sur les tendances des incidents de sécurité, publiées par l'Information Commissioner's Office (ICO), il y a eu 874 attaques de rançongiciels ciblant des organisations britanniques au cours des trois premiers trimestres de 2023. Il s'agit d'une forte augmentation par rapport aux 739 incidents enregistrés tout au long de l'année 2022.
Le rapport anticipe que les cybermenaces les plus sophistiquées apparaîtront vers 2025 en raison de l'évolution et du renforcement des tactiques, des techniques et des procédures actuelles. Au-delà de 2025, en raison de la marchandisation de l'IA, il est prévu que la cybercriminalité aura accès à de nouvelles capacités qui seront exploitées efficacement par des acteurs malveillants ayant accès à des données de formation de qualité, à une expertise importante en IA et en cybersécurité et à d'autres ressources.
C'est précisément là que l'on trouve l'une des barrières principales qui empêchent les cyberpirates de profiter des capacités de l'IA, à savoir, la nécessité pour les concepteurs d'avoir accès à des données de haute qualité pour entraîner leurs modèles. Apparemment, les obstacles à l'évolution de la reconnaissance automatisée des cibles, de l'ingénierie sociale et des logiciels malveillants seraient tous liés à la disponibilité de bonnes données.
Cependant, puisque les acteurs malveillants pourront analyser les données exfiltrées plus rapidement, il est à prévoir qu'ils les utiliseront ensuite pour former de nouveaux modèles d'IA plus sophistiqués, ce qui leur permettra à nouveau de voler davantage de données dans une boucle de rétroaction positive. De ce fait, les intrusions informatiques deviendront plus efficaces et plus difficiles à détecter.
Commentant les conclusions du plus récent rapport du National Cyber Security Centre, du gouvernement britannique, un article de The Record signale que la popularisation des applications d'intelligence artificielle (IA) fera assurément augmenter le nombre et l'impact des cyberattaques par rançongiciel au cours des deux prochaines années.
En effet, à la suite de l'évaluation des informations en provenance d'une multiplicité de sources – des renseignements classifiés, des connaissances de l'industrie, des documents universitaires et des sources ouvertes –, le NCSC a déclaré qu'il était « presque certain » de ses prévisions. Cela correspond à l'indice de confiance le plus élevé utilisé par les analystes du renseignement britanniques.
Selon James Babbage, directeur général des menaces à la National Crime Agency, les rançongiciels représentent une menace pour la sécurité nationale qui, à la lumière du rapport du NCSC, est susceptible d'augmenter dans les années à venir en raison des progrès de l'IA et de l'exploitation de cette technologie par les cybercriminels. De plus, les technologies disruptives réduisent les barrières d'entrée aux activités de collecte illégale d'information des cybercriminels novices tout en améliorant l'ampleur, la vitesse et l'efficacité des méthodes d'attaque existantes.
Bref, l'IA ferait augmenter une menace qui, à l'heure actuelle, est déjà redoutable. The Record note que selon les dernières données sur les tendances des incidents de sécurité, publiées par l'Information Commissioner's Office (ICO), il y a eu 874 attaques de rançongiciels ciblant des organisations britanniques au cours des trois premiers trimestres de 2023. Il s'agit d'une forte augmentation par rapport aux 739 incidents enregistrés tout au long de l'année 2022.
Le rapport anticipe que les cybermenaces les plus sophistiquées apparaîtront vers 2025 en raison de l'évolution et du renforcement des tactiques, des techniques et des procédures actuelles. Au-delà de 2025, en raison de la marchandisation de l'IA, il est prévu que la cybercriminalité aura accès à de nouvelles capacités qui seront exploitées efficacement par des acteurs malveillants ayant accès à des données de formation de qualité, à une expertise importante en IA et en cybersécurité et à d'autres ressources.
C'est précisément là que l'on trouve l'une des barrières principales qui empêchent les cyberpirates de profiter des capacités de l'IA, à savoir, la nécessité pour les concepteurs d'avoir accès à des données de haute qualité pour entraîner leurs modèles. Apparemment, les obstacles à l'évolution de la reconnaissance automatisée des cibles, de l'ingénierie sociale et des logiciels malveillants seraient tous liés à la disponibilité de bonnes données.
Cependant, puisque les acteurs malveillants pourront analyser les données exfiltrées plus rapidement, il est à prévoir qu'ils les utiliseront ensuite pour former de nouveaux modèles d'IA plus sophistiqués, ce qui leur permettra à nouveau de voler davantage de données dans une boucle de rétroaction positive. De ce fait, les intrusions informatiques deviendront plus efficaces et plus difficiles à détecter.