Une nouvelle base de données publique répertorie toutes les façons dont l’IA pourrait mal tourner
Adopter l’intelligence artificielle (IA) peut être dangereux. Les systèmes peuvent être biaisés, répéter des mensonges, voire devenir addictifs. Et c’est sans compter la possibilité que l’IA soit utilisée pour créer de nouvelles armes biologiques ou chimiques, ou qu’elle puisse même un jour échapper à notre contrôle, avance un article de la MIT Technology Review.
Pour gérer ces risques, nous devons d’abord les connaître. Une nouvelle base de données compilée par le groupe FutureTech du MIT avec une équipe de collaborateurs et publiée en ligne pourrait nous y aider. L’AI Risk Repository documente plus de 700 risques que les systèmes d’IA avancés pourraient poser. Il s’agit de la source d’informations la plus complète à ce jour sur les problèmes précédemment identifiés qui pourraient découler de la création et du déploiement de ces modèles.
L’équipe a passé au peigne fin des articles de revues scientifiques spécialisées et des bases de préédition qui détaillent les risques liés à l’IA. Les risques les plus courants concernent la sécurité et la robustesse des systèmes d’IA (76 %), les préjugés et la discrimination (63 %) et la compromission de la confidentialité (61 %). Les risques moins courants ont tendance à être plus ésotériques, comme le risque de créer une IA capable de ressentir la douleur ou de vivre quelque chose qui s’apparente à la « mort ».
La base de données montre également que la majorité des risques liés à l’IA ne sont identifiés qu’une fois qu’un modèle est rendu accessible au public. Seuls 10 % des risques étudiés ont été repérés avant leur déploiement.
Ces résultats pourraient avoir des implications sur la façon dont nous évaluons l’IA, car nous avons actuellement tendance à nous concentrer sur la garantie de la sécurité d’un modèle avant son lancement. « Ce que notre base de données indique, c’est que l’éventail des risques est considérable, et qu’il n’est pas possible de les vérifier tous à l’avance », explique le directeur de MIT FutureTech, qui est l’un des créateurs de la base de données.
De nombreuses tentatives ont été faites pour établir une liste de ce type dans le passé, mais elles se préoccupaient principalement d’un ensemble restreint de dommages potentiels découlant de l’IA.
Même avec cette nouvelle base de données, il est difficile de savoir quels sont les risques liés à l’IA dont il faut le plus s’inquiéter – une tâche rendue encore plus compliquée par le fait que nous ne comprenons pas entièrement le fonctionnement des systèmes d’IA de pointe.
Les créateurs de la base de données ont éludé cette question, choisissant de ne pas classer les risques en fonction du niveau de danger qu’ils représentent. « Ce que nous voulions vraiment, c’était avoir une base de données neutre et complète, et par neutre, j’entends prendre tout tel que présenté et être très transparent à ce sujet », explique l’auteur principal de la base de données.
Cependant, cette tactique pourrait limiter l’utilité de la base de données, explique une doctorante en informatique à l’université Stanford. Selon elle, la simple compilation des risques associés à l’IA ne suffira bientôt plus. « Ils ont été très minutieux, ce qui constitue un bon point de départ pour les futurs efforts de recherche, mais je pense que nous atteignons un point où sensibiliser les gens à tous les risques n’est plus le problème principal », dit-elle. « Pour moi, il s’agit de traduire ces risques. Que devons-nous faire réellement pour les combattre? »
Adopter l’intelligence artificielle (IA) peut être dangereux. Les systèmes peuvent être biaisés, répéter des mensonges, voire devenir addictifs. Et c’est sans compter la possibilité que l’IA soit utilisée pour créer de nouvelles armes biologiques ou chimiques, ou qu’elle puisse même un jour échapper à notre contrôle, avance un article de la MIT Technology Review.
Pour gérer ces risques, nous devons d’abord les connaître. Une nouvelle base de données compilée par le groupe FutureTech du MIT avec une équipe de collaborateurs et publiée en ligne pourrait nous y aider. L’AI Risk Repository documente plus de 700 risques que les systèmes d’IA avancés pourraient poser. Il s’agit de la source d’informations la plus complète à ce jour sur les problèmes précédemment identifiés qui pourraient découler de la création et du déploiement de ces modèles.
L’équipe a passé au peigne fin des articles de revues scientifiques spécialisées et des bases de préédition qui détaillent les risques liés à l’IA. Les risques les plus courants concernent la sécurité et la robustesse des systèmes d’IA (76 %), les préjugés et la discrimination (63 %) et la compromission de la confidentialité (61 %). Les risques moins courants ont tendance à être plus ésotériques, comme le risque de créer une IA capable de ressentir la douleur ou de vivre quelque chose qui s’apparente à la « mort ».
La base de données montre également que la majorité des risques liés à l’IA ne sont identifiés qu’une fois qu’un modèle est rendu accessible au public. Seuls 10 % des risques étudiés ont été repérés avant leur déploiement.
Ces résultats pourraient avoir des implications sur la façon dont nous évaluons l’IA, car nous avons actuellement tendance à nous concentrer sur la garantie de la sécurité d’un modèle avant son lancement. « Ce que notre base de données indique, c’est que l’éventail des risques est considérable, et qu’il n’est pas possible de les vérifier tous à l’avance », explique le directeur de MIT FutureTech, qui est l’un des créateurs de la base de données.
De nombreuses tentatives ont été faites pour établir une liste de ce type dans le passé, mais elles se préoccupaient principalement d’un ensemble restreint de dommages potentiels découlant de l’IA.
Même avec cette nouvelle base de données, il est difficile de savoir quels sont les risques liés à l’IA dont il faut le plus s’inquiéter – une tâche rendue encore plus compliquée par le fait que nous ne comprenons pas entièrement le fonctionnement des systèmes d’IA de pointe.
Les créateurs de la base de données ont éludé cette question, choisissant de ne pas classer les risques en fonction du niveau de danger qu’ils représentent. « Ce que nous voulions vraiment, c’était avoir une base de données neutre et complète, et par neutre, j’entends prendre tout tel que présenté et être très transparent à ce sujet », explique l’auteur principal de la base de données.
Cependant, cette tactique pourrait limiter l’utilité de la base de données, explique une doctorante en informatique à l’université Stanford. Selon elle, la simple compilation des risques associés à l’IA ne suffira bientôt plus. « Ils ont été très minutieux, ce qui constitue un bon point de départ pour les futurs efforts de recherche, mais je pense que nous atteignons un point où sensibiliser les gens à tous les risques n’est plus le problème principal », dit-elle. « Pour moi, il s’agit de traduire ces risques. Que devons-nous faire réellement pour les combattre? »