Une analyse paysagère des programmes d’intelligence artificielle gouvernementaux
Dans un document de travail publié par le Centre pour l'innovation dans la gouvernance internationale (CIGI), Susan Ariel Aaronson, chercheuse principale, estime que le site Web de l'OCDE sur la politique d'intelligence artificielle (IA), l'Observatoire des politiques d'IA de l'OCDE, est la meilleure source d'information au monde sur les politiques publiques consacrées à l'IA, sur la création d'une IA digne de confiance et sur les efforts internationaux pour faire progresser la coopération en matière d'IA.
En utilisant le site comme source, l'auteure a cherché à répondre à quatre questions :
- Que font les gouvernements pour faire progresser l'IA et favoriser une IA digne de confiance dans leurs pays respectifs et à l'international?
- Ces gouvernements évaluent-ils ce qu'ils font ou en rendent-ils compte?
- Les évaluations étaient-elles utiles, crédibles et indépendantes?
- Ces évaluations ont-elles contribué à l'élaboration de bonnes pratiques et d'une IA digne de confiance au sein de l'OCDE?
L'examen par la chercheuse des informations contenues sur le site révèle que les gouvernements n'ont pas encore évalué efficacement leurs efforts. Les 62 pays qui ont fait rapport à l'OCDE en août 2022 ont généralement signalé des initiatives conçues pour renforcer les capacités nationales en matière d'IA et un contexte de gouvernance favorable à l'IA. Cela est compréhensible, car les décideurs politiques doivent montrer à leurs électeurs qu'ils mettront en œuvre des programmes conçus pour répondre à leurs besoins. Pourtant, l'auteure a constaté que peu de ces initiatives avaient fait l'objet d'une évaluation ou d'un rapport. Par conséquent, les décideurs politiques n'apprenaient pas efficacement de leurs programmes, car l'auteure a constaté que seuls quatre programmes sur 814, ou 0,49 %, avaient été évalués.
Pour sa part, l'OCDE a noté que la plupart des initiatives nationales en matière d'IA ont été lancées en 2019 et 2020, et qu'il est peut-être trop tôt pour les évaluer efficacement. Les services de l'OCDE ont également souligné qu'ils encourageaient les pays à évaluer leurs propres initiatives. Enfin, le personnel de l'OCDE a déclaré qu'il recommandait aux gouvernements de réfléchir aux données qu'ils devraient recueillir pour évaluer ces programmes à l'avenir. Toutefois, certains des programmes financés par les gouvernements ont commencé il y a des décennies. Ces gouvernements ont eu des années pour développer une méthodologie d'évaluation des problèmes de longue date qui soit utile, crédible et indépendante. Pourquoi n'ont-ils pas fait de ces évaluations une priorité? La recherche a également révélé des écarts entre ce que les gouvernements ont déclaré faire sur le site Web de l'OCDE et ce qui a été rapporté sur les sites Web nationaux.
En réalité, personne ne sait comment instaurer la confiance dans l'IA, ou si les efforts visant à promouvoir une IA digne de confiance seront efficaces. En fin de compte, cette responsabilité incombe aux développeurs et aux déployeurs d'IA et aux décideurs politiques qui régissent l'IA. Mais une meilleure compréhension est nécessaire pour maintenir la confiance dans l'IA. Par conséquent, les pays qui procèdent à des évaluations des efforts en matière d'IA sont susceptibles de renforcer la confiance à la fois dans l'IA et dans la gouvernance de l'IA.
Dans un document de travail publié par le Centre pour l'innovation dans la gouvernance internationale (CIGI), Susan Ariel Aaronson, chercheuse principale, estime que le site Web de l'OCDE sur la politique d'intelligence artificielle (IA), l'Observatoire des politiques d'IA de l'OCDE, est la meilleure source d'information au monde sur les politiques publiques consacrées à l'IA, sur la création d'une IA digne de confiance et sur les efforts internationaux pour faire progresser la coopération en matière d'IA.
En utilisant le site comme source, l'auteure a cherché à répondre à quatre questions :
- Que font les gouvernements pour faire progresser l'IA et favoriser une IA digne de confiance dans leurs pays respectifs et à l'international?
- Ces gouvernements évaluent-ils ce qu'ils font ou en rendent-ils compte?
- Les évaluations étaient-elles utiles, crédibles et indépendantes?
- Ces évaluations ont-elles contribué à l'élaboration de bonnes pratiques et d'une IA digne de confiance au sein de l'OCDE?
L'examen par la chercheuse des informations contenues sur le site révèle que les gouvernements n'ont pas encore évalué efficacement leurs efforts. Les 62 pays qui ont fait rapport à l'OCDE en août 2022 ont généralement signalé des initiatives conçues pour renforcer les capacités nationales en matière d'IA et un contexte de gouvernance favorable à l'IA. Cela est compréhensible, car les décideurs politiques doivent montrer à leurs électeurs qu'ils mettront en œuvre des programmes conçus pour répondre à leurs besoins. Pourtant, l'auteure a constaté que peu de ces initiatives avaient fait l'objet d'une évaluation ou d'un rapport. Par conséquent, les décideurs politiques n'apprenaient pas efficacement de leurs programmes, car l'auteure a constaté que seuls quatre programmes sur 814, ou 0,49 %, avaient été évalués.
Pour sa part, l'OCDE a noté que la plupart des initiatives nationales en matière d'IA ont été lancées en 2019 et 2020, et qu'il est peut-être trop tôt pour les évaluer efficacement. Les services de l'OCDE ont également souligné qu'ils encourageaient les pays à évaluer leurs propres initiatives. Enfin, le personnel de l'OCDE a déclaré qu'il recommandait aux gouvernements de réfléchir aux données qu'ils devraient recueillir pour évaluer ces programmes à l'avenir. Toutefois, certains des programmes financés par les gouvernements ont commencé il y a des décennies. Ces gouvernements ont eu des années pour développer une méthodologie d'évaluation des problèmes de longue date qui soit utile, crédible et indépendante. Pourquoi n'ont-ils pas fait de ces évaluations une priorité? La recherche a également révélé des écarts entre ce que les gouvernements ont déclaré faire sur le site Web de l'OCDE et ce qui a été rapporté sur les sites Web nationaux.
En réalité, personne ne sait comment instaurer la confiance dans l'IA, ou si les efforts visant à promouvoir une IA digne de confiance seront efficaces. En fin de compte, cette responsabilité incombe aux développeurs et aux déployeurs d'IA et aux décideurs politiques qui régissent l'IA. Mais une meilleure compréhension est nécessaire pour maintenir la confiance dans l'IA. Par conséquent, les pays qui procèdent à des évaluations des efforts en matière d'IA sont susceptibles de renforcer la confiance à la fois dans l'IA et dans la gouvernance de l'IA.