La Californie peut-elle combler le vide en matière de réglementation de l’IA?
Les capacités sans précédent de l’intelligence artificielle (IA) ont suscité un large débat sur les normes nécessaires pour en exploiter les avantages et en atténuer les risques. De nombreux gouvernements sont devenus des leaders dans l’élaboration de ces normes, notamment la Chine, l’Union européenne et le Royaume-Uni.
Les États-Unis ont également pris des mesures pour établir un programme de gouvernance de l’IA, notamment en publiant le :
- Blueprint for an AI Bill of Rights;
- le National Institute of Standards and Technology AI Risk Management Framework 1.0;
- ainsi que le décret exécutif Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence.
Toutefois, ces actions émanent presque uniquement du pouvoir exécutif, qui dispose de pouvoirs réglementaires limités. Malgré une multitude de projets de loi, de cadres et d’auditions, le Congrès n’est toujours pas parvenu à adopter une législation visant à cibler étroitement les risques spécifiques de l’IA ou à garantir de manière générale le développement et le déploiement responsables des systèmes d’IA, soutient un article de la Brookings Institution.
Dans ce vide législatif fédéral, les États émergent aujourd’hui comme les régulateurs de l’IA. Certaines des lois adoptées incluent des mesures visant à protéger la confidentialité des données des consommateurs, à renforcer la compréhension institutionnelle de l’IA, à prévenir les interférences électorales et à créer des groupes de travail nationaux, des bureaux et des comités consultatifs sur l’IA.
Récemment, l’Utah a adopté une loi plus large établissant la responsabilité, les exigences en matière de notification d’interaction et un bureau de politique en matière d’IA. Cependant, dans cette mosaïque émergente, un État est particulièrement bien placé pour avoir un impact crucial sur la gouvernance de l’IA : la Californie.
Peut-être que les efforts de la Californie pour influencer l’élaboration de cadres politiques et réglementaires en matière d’IA sont dus à son statut de puissance de l’IA, à sa grande économie et à son penchant démocrate pour la réglementation. Le Golden State abrite 32 des 50 plus grandes sociétés mondiales d’IA selon Forbes. De plus, la Californie produit 14,5 % du PIB des États-Unis, et si elle était un pays souverain, elle serait la cinquième ou la sixième économie mondiale derrière les États-Unis (sans la Californie), la Chine, le Japon, l’Allemagne et peut-être l’Inde.
Le double rôle de la Californie, en tant que haut lieu de l’IA et puissante économie, pourrait permettre à sa réglementation en matière d’IA d’obtenir plusieurs avantages liés à une législation normative, comme exiger un développement et un déploiement responsables des systèmes d’IA, atténuer le vol de puissants modèles à double usage par des acteurs malveillants et garantir une responsabilité juridique pour les dommages causés par l’IA.
Un projet de loi récemment présenté fournit un modèle pour une telle réglementation et pourrait apporter bon nombre de ces avantages aux Californiens et, incidemment, à tout le monde. L’objectif principal du projet de loi est d’atténuer les risques importants posés par les futurs modèles pionniers, notamment l’automatisation des cyberattaques à grande échelle et la production de nouvelles armes biologiques. Le projet de loi comprend également plusieurs autres dispositions clés pour accroître la sécurité.
Malgré ses promesses, l’ambition de la Californie pourrait avoir certaines limites. De plus, la Californie n’est pas le seul État à chercher à définir la ligne d’action à l’échelle nationale.
Les capacités sans précédent de l’intelligence artificielle (IA) ont suscité un large débat sur les normes nécessaires pour en exploiter les avantages et en atténuer les risques. De nombreux gouvernements sont devenus des leaders dans l’élaboration de ces normes, notamment la Chine, l’Union européenne et le Royaume-Uni.
Les États-Unis ont également pris des mesures pour établir un programme de gouvernance de l’IA, notamment en publiant le :
- Blueprint for an AI Bill of Rights;
- le National Institute of Standards and Technology AI Risk Management Framework 1.0;
- ainsi que le décret exécutif Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence.
Toutefois, ces actions émanent presque uniquement du pouvoir exécutif, qui dispose de pouvoirs réglementaires limités. Malgré une multitude de projets de loi, de cadres et d’auditions, le Congrès n’est toujours pas parvenu à adopter une législation visant à cibler étroitement les risques spécifiques de l’IA ou à garantir de manière générale le développement et le déploiement responsables des systèmes d’IA, soutient un article de la Brookings Institution.
Dans ce vide législatif fédéral, les États émergent aujourd’hui comme les régulateurs de l’IA. Certaines des lois adoptées incluent des mesures visant à protéger la confidentialité des données des consommateurs, à renforcer la compréhension institutionnelle de l’IA, à prévenir les interférences électorales et à créer des groupes de travail nationaux, des bureaux et des comités consultatifs sur l’IA.
Récemment, l’Utah a adopté une loi plus large établissant la responsabilité, les exigences en matière de notification d’interaction et un bureau de politique en matière d’IA. Cependant, dans cette mosaïque émergente, un État est particulièrement bien placé pour avoir un impact crucial sur la gouvernance de l’IA : la Californie.
Peut-être que les efforts de la Californie pour influencer l’élaboration de cadres politiques et réglementaires en matière d’IA sont dus à son statut de puissance de l’IA, à sa grande économie et à son penchant démocrate pour la réglementation. Le Golden State abrite 32 des 50 plus grandes sociétés mondiales d’IA selon Forbes. De plus, la Californie produit 14,5 % du PIB des États-Unis, et si elle était un pays souverain, elle serait la cinquième ou la sixième économie mondiale derrière les États-Unis (sans la Californie), la Chine, le Japon, l’Allemagne et peut-être l’Inde.
Le double rôle de la Californie, en tant que haut lieu de l’IA et puissante économie, pourrait permettre à sa réglementation en matière d’IA d’obtenir plusieurs avantages liés à une législation normative, comme exiger un développement et un déploiement responsables des systèmes d’IA, atténuer le vol de puissants modèles à double usage par des acteurs malveillants et garantir une responsabilité juridique pour les dommages causés par l’IA.
Un projet de loi récemment présenté fournit un modèle pour une telle réglementation et pourrait apporter bon nombre de ces avantages aux Californiens et, incidemment, à tout le monde. L’objectif principal du projet de loi est d’atténuer les risques importants posés par les futurs modèles pionniers, notamment l’automatisation des cyberattaques à grande échelle et la production de nouvelles armes biologiques. Le projet de loi comprend également plusieurs autres dispositions clés pour accroître la sécurité.
Malgré ses promesses, l’ambition de la Californie pourrait avoir certaines limites. De plus, la Californie n’est pas le seul État à chercher à définir la ligne d’action à l’échelle nationale.