Les gouvernements se précipitent pour réglementer les outils d’IA
Les progrès rapides de l'intelligence artificielle (IA), tels que ChatGPT d'OpenAI, soutenu par Microsoft, compliquent les efforts des gouvernements pour convenir de lois régissant l'utilisation de la technologie.
Un article de l'agence Reuters décrit les dernières mesures prises par les gouvernements pour réglementer les outils d'IA :
Royaume-Uni : La Financial Conduct Authority, l'un des nombreux régulateurs d'État chargés d'élaborer de nouvelles directives concernant l'IA, consulte l'Institut Alan Turing et diverses institutions juridiques et universités pour améliorer sa compréhension de la technologie. Le régulateur britannique de la concurrence a déclaré le 4 mai qu'il commencerait à examiner l'impact de l'IA sur les consommateurs, les entreprises et l'économie et établirait si de nouveaux contrôles étaient nécessaires. Le Royaume-Uni a déclaré en mars qu'il prévoyait de répartir la responsabilité de la gouvernance de l'IA entre ses régulateurs des droits de l'homme, de la santé et de la sécurité et de la concurrence, plutôt que de créer un nouvel organisme.
France : L'organisme français de surveillance de la vie privée, la CNIL, a déclaré en avril qu'il enquêtait sur plusieurs plaintes concernant ChatGPT après son interdiction temporaire en Italie en raison d'une violation présumée des règles de confidentialité. L'Assemblée nationale française a approuvé en mars l'utilisation de la vidéosurveillance par IA pendant les Jeux olympiques de Paris en 2024, ignorant les avertissements des groupes de défense des droits civiques.
Chine : Le régulateur chinois du cyberespace a dévoilé en avril un projet de mesures pour gérer les services d'IA générative, affirmant qu'il souhaitait que les entreprises soumettent des évaluations de sécurité aux autorités avant de les proposer au grand public. Pékin soutiendra les grandes entreprises dans la construction de modèles d'IA capables de défier ChatGPT, a déclaré son bureau de l'économie et des technologies de l'information en février. Le projet de mesures « est un mélange de restrictions sensées sur les risques liés à l'IA et une continuation de la forte tradition gouvernementale chinoise d'intervention agressive dans l'industrie technologique », selon une analyse de la MIT Technology Review.
Japon : L'organisme japonais de surveillance de la vie privée a déclaré le 2 juin qu'il avait averti OpenAI de ne pas collecter de données sensibles sans l'autorisation des personnes et de minimiser les données sensibles qu'il collecte, ajoutant qu'il pourrait prendre d'autres mesures si nécessaire.
G7 : Les dirigeants du Groupe des Sept réunis à Hiroshima, au Japon, ont reconnu le 20 mai la nécessité d'une gouvernance de l'IA et des technologies immersives et ont convenu que les ministres discuteraient de la technologie en tant que « processus d'IA d'Hiroshima » et rendraient compte des résultats d'ici la fin de 2023. Les pays du G7 devraient adopter une réglementation sur l'IA « basée sur les risques ».
États-Unis et Europe : Selon le site GZERO, lors d'une réunion récente avec les régulateurs technologiques de l'UE, l'administration Biden aurait été « divisée » sur la manière stricte de contrôler la technologie émergente. L'Europe, dont les règles sont déjà strictes en matière de confidentialité et de concurrence numériques, s'oriente vers de nouvelles règles strictes en matière d'IA.
Les progrès rapides de l'intelligence artificielle (IA), tels que ChatGPT d'OpenAI, soutenu par Microsoft, compliquent les efforts des gouvernements pour convenir de lois régissant l'utilisation de la technologie.
Un article de l'agence Reuters décrit les dernières mesures prises par les gouvernements pour réglementer les outils d'IA :
Royaume-Uni : La Financial Conduct Authority, l'un des nombreux régulateurs d'État chargés d'élaborer de nouvelles directives concernant l'IA, consulte l'Institut Alan Turing et diverses institutions juridiques et universités pour améliorer sa compréhension de la technologie. Le régulateur britannique de la concurrence a déclaré le 4 mai qu'il commencerait à examiner l'impact de l'IA sur les consommateurs, les entreprises et l'économie et établirait si de nouveaux contrôles étaient nécessaires. Le Royaume-Uni a déclaré en mars qu'il prévoyait de répartir la responsabilité de la gouvernance de l'IA entre ses régulateurs des droits de l'homme, de la santé et de la sécurité et de la concurrence, plutôt que de créer un nouvel organisme.
France : L'organisme français de surveillance de la vie privée, la CNIL, a déclaré en avril qu'il enquêtait sur plusieurs plaintes concernant ChatGPT après son interdiction temporaire en Italie en raison d'une violation présumée des règles de confidentialité. L'Assemblée nationale française a approuvé en mars l'utilisation de la vidéosurveillance par IA pendant les Jeux olympiques de Paris en 2024, ignorant les avertissements des groupes de défense des droits civiques.
Chine : Le régulateur chinois du cyberespace a dévoilé en avril un projet de mesures pour gérer les services d'IA générative, affirmant qu'il souhaitait que les entreprises soumettent des évaluations de sécurité aux autorités avant de les proposer au grand public. Pékin soutiendra les grandes entreprises dans la construction de modèles d'IA capables de défier ChatGPT, a déclaré son bureau de l'économie et des technologies de l'information en février. Le projet de mesures « est un mélange de restrictions sensées sur les risques liés à l'IA et une continuation de la forte tradition gouvernementale chinoise d'intervention agressive dans l'industrie technologique », selon une analyse de la MIT Technology Review.
Japon : L'organisme japonais de surveillance de la vie privée a déclaré le 2 juin qu'il avait averti OpenAI de ne pas collecter de données sensibles sans l'autorisation des personnes et de minimiser les données sensibles qu'il collecte, ajoutant qu'il pourrait prendre d'autres mesures si nécessaire.
G7 : Les dirigeants du Groupe des Sept réunis à Hiroshima, au Japon, ont reconnu le 20 mai la nécessité d'une gouvernance de l'IA et des technologies immersives et ont convenu que les ministres discuteraient de la technologie en tant que « processus d'IA d'Hiroshima » et rendraient compte des résultats d'ici la fin de 2023. Les pays du G7 devraient adopter une réglementation sur l'IA « basée sur les risques ».
États-Unis et Europe : Selon le site GZERO, lors d'une réunion récente avec les régulateurs technologiques de l'UE, l'administration Biden aurait été « divisée » sur la manière stricte de contrôler la technologie émergente. L'Europe, dont les règles sont déjà strictes en matière de confidentialité et de concurrence numériques, s'oriente vers de nouvelles règles strictes en matière d'IA.