Une nouvelle base de données détaille les risques liés à l’IA
Selon le cabinet d’études Arize AI, le nombre d’entreprises du classement Fortune 500 citant l’intelligence artificielle (IA) comme un risque dans leurs rapports financiers annuels a atteint 281 cette année. Cela représente une augmentation de 473,5 % par rapport à 2022, lorsque seulement 49 entreprises ont signalé la technologie comme un facteur de risque.
Compte tenu de l’ampleur et de la gravité du risque, une équipe de chercheurs associés à la MIT Sloan School of Management a créé l’AI Risk Repository, une base de données de plus de 700 risques posés par l’IA, classés par problème et par domaine de risque. Le projet vise à fournir à l’industrie, aux décideurs politiques, aux universitaires et aux évaluateurs de risques un cadre commun pour surveiller les risques liés à l’IA. Le référentiel peut également aider les organisations dans leurs évaluations internes des risques, leurs stratégies d’atténuation des risques et le développement de la recherche et de la formation.
Alors que d’autres entités ont tenté de classer les risques liés à l’IA, les classifications existantes se sont généralement concentrées sur une petite partie seulement du paysage global des risques liés à l’IA.
« Les risques posés par les systèmes d’IA deviennent de plus en plus importants à mesure que l’adoption de l’IA s’accélère dans l’industrie et la société », déclare le responsable du projet. « Cependant, ces risques sont souvent discutés de manière fragmentée, dans différents secteurs et domaines universitaires, sans vocabulaire commun ni cadre cohérent. »
Pour créer le référentiel des risques, les chercheurs ont effectué des recherches dans des bases de données universitaires et consulté d’autres ressources pour examiner les taxonomies existantes et les classifications structurées des risques liés à l’IA. Ils ont constaté que deux types de systèmes de classification étaient courants dans la littérature existante.
Les deux types de systèmes de classification sont utilisés dans le référentiel des risques liés à l’IA, qui comporte trois composantes :
- La base de données des risques liés à l’IA répertorie 777 risques différents issus de 43 documents, avec citations et numéros de page inclus. Elle est mise à jour à mesure que de nouveaux risques apparaissent.
- La taxonomie causale des risques liés à l’IA classe comment, quand et pourquoi ces risques se produisent, en fonction de leurs causes profondes. Les causes sont réparties en trois catégories : l’entité responsable (humaine ou IA), l’intentionnalité derrière le risque (intentionnel ou non intentionnel) et le moment du risque (avant ou après le déploiement).
- La taxonomie des domaines de risques liés à l’IA segmente les risques en fonction du domaine dans lequel ils se produisent, comme la confidentialité, la désinformation ou la sécurité des systèmes d’IA. Cette section mentionne sept domaines et 23 sous-domaines.
Dans le cadre de cet exercice, les chercheurs ont découvert des informations intéressantes dans la littérature actuelle. Parmi elles :
- La plupart des risques ont été attribués aux systèmes d’IA plutôt qu’aux humains (51 % contre 34 %).
- La plupart des risques évoqués se sont produits après qu’un modèle d’IA a été entraîné et déployé (65 %) plutôt qu’avant (10 %).
- Un nombre presque égal de risques intentionnels (35 %) et non intentionnels (37 %) ont été identifiés.
Selon le cabinet d’études Arize AI, le nombre d’entreprises du classement Fortune 500 citant l’intelligence artificielle (IA) comme un risque dans leurs rapports financiers annuels a atteint 281 cette année. Cela représente une augmentation de 473,5 % par rapport à 2022, lorsque seulement 49 entreprises ont signalé la technologie comme un facteur de risque.
Compte tenu de l’ampleur et de la gravité du risque, une équipe de chercheurs associés à la MIT Sloan School of Management a créé l’AI Risk Repository, une base de données de plus de 700 risques posés par l’IA, classés par problème et par domaine de risque. Le projet vise à fournir à l’industrie, aux décideurs politiques, aux universitaires et aux évaluateurs de risques un cadre commun pour surveiller les risques liés à l’IA. Le référentiel peut également aider les organisations dans leurs évaluations internes des risques, leurs stratégies d’atténuation des risques et le développement de la recherche et de la formation.
Alors que d’autres entités ont tenté de classer les risques liés à l’IA, les classifications existantes se sont généralement concentrées sur une petite partie seulement du paysage global des risques liés à l’IA.
« Les risques posés par les systèmes d’IA deviennent de plus en plus importants à mesure que l’adoption de l’IA s’accélère dans l’industrie et la société », déclare le responsable du projet. « Cependant, ces risques sont souvent discutés de manière fragmentée, dans différents secteurs et domaines universitaires, sans vocabulaire commun ni cadre cohérent. »
Pour créer le référentiel des risques, les chercheurs ont effectué des recherches dans des bases de données universitaires et consulté d’autres ressources pour examiner les taxonomies existantes et les classifications structurées des risques liés à l’IA. Ils ont constaté que deux types de systèmes de classification étaient courants dans la littérature existante.
Les deux types de systèmes de classification sont utilisés dans le référentiel des risques liés à l’IA, qui comporte trois composantes :
- La base de données des risques liés à l’IA répertorie 777 risques différents issus de 43 documents, avec citations et numéros de page inclus. Elle est mise à jour à mesure que de nouveaux risques apparaissent.
- La taxonomie causale des risques liés à l’IA classe comment, quand et pourquoi ces risques se produisent, en fonction de leurs causes profondes. Les causes sont réparties en trois catégories : l’entité responsable (humaine ou IA), l’intentionnalité derrière le risque (intentionnel ou non intentionnel) et le moment du risque (avant ou après le déploiement).
- La taxonomie des domaines de risques liés à l’IA segmente les risques en fonction du domaine dans lequel ils se produisent, comme la confidentialité, la désinformation ou la sécurité des systèmes d’IA. Cette section mentionne sept domaines et 23 sous-domaines.
Dans le cadre de cet exercice, les chercheurs ont découvert des informations intéressantes dans la littérature actuelle. Parmi elles :
- La plupart des risques ont été attribués aux systèmes d’IA plutôt qu’aux humains (51 % contre 34 %).
- La plupart des risques évoqués se sont produits après qu’un modèle d’IA a été entraîné et déployé (65 %) plutôt qu’avant (10 %).
- Un nombre presque égal de risques intentionnels (35 %) et non intentionnels (37 %) ont été identifiés.