Un décret de l’administration de Joe Biden vise à encadrer l’utilisation de l’intelligence artificielle pour mieux protéger la vie privée des citoyens
Fortune signale que le 30 octobre 2023, le président Joe Biden a publié un décret sur l’intelligence artificielle (IA) afin de clarifier des aspects critiques sur la vie privée et d’autres libertés civiles. Celui-ci était très attendu, car les États-Unis ne disposent pas d’une loi fédérale complète sur la protection de la vie privée. Les règles existantes se rapportent étroitement soit aux enfants (COPPA), soit aux informations sur la santé (HIPAA).
Pour résoudre cette déficience, Biden aurait ciblé la confidentialité des données comme une occasion de mettre en place une législation bipartite axée, principalement, sur la protection des moins de 18 ans, sans négliger pour autant l’encadrement des pratiques de collecte de données personnelles des entreprises.
Selon Fortune, le gouvernement fédéral devrait bénéficier d’un plus grand soutien pour la conception des technologies qui contribuent à la protection de la vie privée des citoyens américains. Ce sont des technologies que les agences fédérales seront encouragées à utiliser et qui seront encadrées par des lignes directrices établies pour évaluer leur efficacité.
Il est à noter que, selon Fortune, il y aura une évaluation de la façon dont les agences gouvernementales achètent des données personnelles identifiables auprès d’entreprises commerciales telles que des courtiers en données afin d’éviter les risques posés par une utilisation non encadrée de l’IA. Notons que, même si le gouvernement avait déjà exprimé ses inquiétudes concernant l’IA et la confidentialité des données dans son Plan directeur pour une déclaration des droits de l’IA (novembre 2022), le décret de Joe Biden représente, dit-on, une première action concrète et proactive pour s’attaquer à ce problème.
La proactivité de l’administration Biden serait visible, selon Fortune, dans son intention de s’occuper de plusieurs autres thématiques qui permettraient de mieux gérer à la fois les risques immédiats et ceux à plus long terme. Entre autres choses, les agences fédérales devront :
- Élaborer des normes de sûreté et de sécurité en matière d’IA et évaluer les risques pour les infrastructures critiques;
- Trouver la façon de mieux soutenir les travailleurs qui voient leur emploi supprimé;
- Rendre des ressources disponibles pour les écoles qui souhaitent utiliser l’IA pour des applications comme le tutorat personnalisé;
- Mieux coordonner l’identification et l’élimination des violations des droits civiques basées sur l’IA.
En outre, il est prévu que les grandes entreprises d’IA devront partager avec le gouvernement les résultats des tests de sécurité et d’autres informations critiques. De plus, elles devront l’avertir de la conception de nouveaux modèles de formation qui puissent être considérés comme risqués. Malgré cela, Fortune note que pour l’essentiel, les grands joueurs de cette industrie pourront poursuivre leurs activités comme d’habitude. Pour l’instant, sous les auspices de Biden, les grandes entreprises ont été amenées à prendre des engagements volontaires concernant la sécurité de l’IA. En fait, le G7 vient de publier un code de conduite dont l’application est également volontaire.
Fortune signale que le 30 octobre 2023, le président Joe Biden a publié un décret sur l’intelligence artificielle (IA) afin de clarifier des aspects critiques sur la vie privée et d’autres libertés civiles. Celui-ci était très attendu, car les États-Unis ne disposent pas d’une loi fédérale complète sur la protection de la vie privée. Les règles existantes se rapportent étroitement soit aux enfants (COPPA), soit aux informations sur la santé (HIPAA).
Pour résoudre cette déficience, Biden aurait ciblé la confidentialité des données comme une occasion de mettre en place une législation bipartite axée, principalement, sur la protection des moins de 18 ans, sans négliger pour autant l’encadrement des pratiques de collecte de données personnelles des entreprises.
Selon Fortune, le gouvernement fédéral devrait bénéficier d’un plus grand soutien pour la conception des technologies qui contribuent à la protection de la vie privée des citoyens américains. Ce sont des technologies que les agences fédérales seront encouragées à utiliser et qui seront encadrées par des lignes directrices établies pour évaluer leur efficacité.
Il est à noter que, selon Fortune, il y aura une évaluation de la façon dont les agences gouvernementales achètent des données personnelles identifiables auprès d’entreprises commerciales telles que des courtiers en données afin d’éviter les risques posés par une utilisation non encadrée de l’IA. Notons que, même si le gouvernement avait déjà exprimé ses inquiétudes concernant l’IA et la confidentialité des données dans son Plan directeur pour une déclaration des droits de l’IA (novembre 2022), le décret de Joe Biden représente, dit-on, une première action concrète et proactive pour s’attaquer à ce problème.
La proactivité de l’administration Biden serait visible, selon Fortune, dans son intention de s’occuper de plusieurs autres thématiques qui permettraient de mieux gérer à la fois les risques immédiats et ceux à plus long terme. Entre autres choses, les agences fédérales devront :
- Élaborer des normes de sûreté et de sécurité en matière d’IA et évaluer les risques pour les infrastructures critiques;
- Trouver la façon de mieux soutenir les travailleurs qui voient leur emploi supprimé;
- Rendre des ressources disponibles pour les écoles qui souhaitent utiliser l’IA pour des applications comme le tutorat personnalisé;
- Mieux coordonner l’identification et l’élimination des violations des droits civiques basées sur l’IA.
En outre, il est prévu que les grandes entreprises d’IA devront partager avec le gouvernement les résultats des tests de sécurité et d’autres informations critiques. De plus, elles devront l’avertir de la conception de nouveaux modèles de formation qui puissent être considérés comme risqués. Malgré cela, Fortune note que pour l’essentiel, les grands joueurs de cette industrie pourront poursuivre leurs activités comme d’habitude. Pour l’instant, sous les auspices de Biden, les grandes entreprises ont été amenées à prendre des engagements volontaires concernant la sécurité de l’IA. En fait, le G7 vient de publier un code de conduite dont l’application est également volontaire.