Comment la Californie et d’autres États abordent la législation sur l’IA
Une nouvelle vague de législations d’État vise la réglementation de l’intelligence artificielle (IA), soulevant des questions clés sur la meilleure façon de concevoir et de mettre en œuvre ces lois, indique un article de la Brookings Institution. En règle générale, les projets de loi introduisent de nouvelles protections lorsque l’IA ou d’autres systèmes automatisés sont utilisés pour aider à prendre des décisions importantes, par exemple, lorsqu’un travailleur reçoit une prime, qu’un étudiant entre à l’université ou qu’un aîné reçoit ses prestations sociales. Les systèmes d’IA, qui fonctionnent souvent de manière opaque, sont de plus en plus utilisés dans une grande variété de contextes influents. À l’Assemblée de l’État de la Californie, on cite des préjudices algorithmiques démontrés dans les prestations de soins de santé, la publicité pour le logement et l’embauche, et il y a malheureusement eu de nombreux autres cas de préjudices de ce type.
La réglementation de l’IA aux États-Unis est encore naissante. Le Congrès a adopté d’importants projets de loi axés sur les systèmes gouvernementaux d’IA. En 2022, l’administration Biden a publié des orientations volontaires par le biais de son Plan directeur pour une déclaration des droits de l’IA, qui encourage les agences et ministères à mettre en pratique les principes de l’IA. La Maison-Blanche a également publié deuxdécrets demandant aux agences de se concentrer sur l’équité dans leur milieu de travail, notamment en prenant des mesures contre la discrimination algorithmique. De nombreux organismes en ont tenu compte et progressent dans leurs territoires respectifs. Pourtant, il n’y a aucune législation fédérale visant à protéger les personnes contre les dommages potentiels de l’IA et d’autres systèmes automatisés émergents.
Les États, cependant, avancent. De la Californie au Connecticut et de l’Illinois au Texas, les laboratoires de la démocratie commencent à agir pour protéger le public des méfaits potentiels de ces technologies. Ces efforts, émanant à la fois des législateurs démocrates et républicains, sont fondés sur les principes de bonne gouvernance. D’une manière générale, les efforts législatifs des États cherchent à trouver un équilibre entre des protections plus solides pour leurs électeurs et l’innovation et l’utilisation commerciale de l’IA. Il n’y a pas de modèle unique pour ces efforts, mais quelques domaines de consensus importants ont émergé, à la fois des projets de loi et des lois déjà adoptées.
Premièrement, la gouvernance devrait se concentrer sur l’impact des outils algorithmiques dans les contextes affectant les droits civils des personnes, les possibilités d’avancement et l’accès aux services essentiels. Deuxièmement, il est largement admis qu’il est essentiel de renforcer la transparence. Lorsqu’ils utilisent des algorithmes pour des décisions importantes, les entreprises et les gouvernements doivent informer explicitement les personnes concernées (comme l’exige le projet de loi californien). Rendre publiques certaines sections des évaluations d’impact algorithmiques permettrait également de les responsabiliser davantage et conduirait à une meilleure gouvernance par des législateurs mieux informés.
Une nouvelle vague de législations d’État vise la réglementation de l’intelligence artificielle (IA), soulevant des questions clés sur la meilleure façon de concevoir et de mettre en œuvre ces lois, indique un article de la Brookings Institution. En règle générale, les projets de loi introduisent de nouvelles protections lorsque l’IA ou d’autres systèmes automatisés sont utilisés pour aider à prendre des décisions importantes, par exemple, lorsqu’un travailleur reçoit une prime, qu’un étudiant entre à l’université ou qu’un aîné reçoit ses prestations sociales. Les systèmes d’IA, qui fonctionnent souvent de manière opaque, sont de plus en plus utilisés dans une grande variété de contextes influents. À l’Assemblée de l’État de la Californie, on cite des préjudices algorithmiques démontrés dans les prestations de soins de santé, la publicité pour le logement et l’embauche, et il y a malheureusement eu de nombreux autres cas de préjudices de ce type.
La réglementation de l’IA aux États-Unis est encore naissante. Le Congrès a adopté d’importants projets de loi axés sur les systèmes gouvernementaux d’IA. En 2022, l’administration Biden a publié des orientations volontaires par le biais de son Plan directeur pour une déclaration des droits de l’IA, qui encourage les agences et ministères à mettre en pratique les principes de l’IA. La Maison-Blanche a également publié deuxdécrets demandant aux agences de se concentrer sur l’équité dans leur milieu de travail, notamment en prenant des mesures contre la discrimination algorithmique. De nombreux organismes en ont tenu compte et progressent dans leurs territoires respectifs. Pourtant, il n’y a aucune législation fédérale visant à protéger les personnes contre les dommages potentiels de l’IA et d’autres systèmes automatisés émergents.
Les États, cependant, avancent. De la Californie au Connecticut et de l’Illinois au Texas, les laboratoires de la démocratie commencent à agir pour protéger le public des méfaits potentiels de ces technologies. Ces efforts, émanant à la fois des législateurs démocrates et républicains, sont fondés sur les principes de bonne gouvernance. D’une manière générale, les efforts législatifs des États cherchent à trouver un équilibre entre des protections plus solides pour leurs électeurs et l’innovation et l’utilisation commerciale de l’IA. Il n’y a pas de modèle unique pour ces efforts, mais quelques domaines de consensus importants ont émergé, à la fois des projets de loi et des lois déjà adoptées.
Premièrement, la gouvernance devrait se concentrer sur l’impact des outils algorithmiques dans les contextes affectant les droits civils des personnes, les possibilités d’avancement et l’accès aux services essentiels. Deuxièmement, il est largement admis qu’il est essentiel de renforcer la transparence. Lorsqu’ils utilisent des algorithmes pour des décisions importantes, les entreprises et les gouvernements doivent informer explicitement les personnes concernées (comme l’exige le projet de loi californien). Rendre publiques certaines sections des évaluations d’impact algorithmiques permettrait également de les responsabiliser davantage et conduirait à une meilleure gouvernance par des législateurs mieux informés.