Trois choses à savoir au sujet du décret de la Maison-Blanche sur l’IA
Dans un article de la MIT Technology Review, les experts consultés affirment que l’accent mis sur l’étiquetage du contenu, le tatouage numérique et la transparence représente une avancée importante.
Dans un décret exécutif publié par le président Joe Biden, les États-Unis ont défini leur ensemble de règles et de lignes directrices en matière d’intelligence artificielle (IA) le plus complet à ce jour. L’ordonnance exigera plus de transparence de la part des entreprises d’IA sur le fonctionnement de leurs modèles et établira une série de nouvelles normes, notamment pour l’étiquetage du contenu généré par l’IA.
L’objectif du décret, selon la Maison-Blanche, est d’améliorer « la sûreté et la sécurité de l’IA ». Celui-ci comprend également l’obligation pour les développeurs de partager les résultats des tests de sécurité des nouveaux modèles d’IA avec le gouvernement américain si les tests montrent que la technologie pourrait présenter un risque pour la sécurité nationale.
Le décret renforce les exigences volontaires en matière de politique d’IA que la Maison-Blanche a fixées en août, bien qu’il manque de précisions sur la manière dont les règles seront appliquées. Les décrets sont également susceptibles d’être annulés à tout moment par un futur président, et ils n’ont pas la légitimité d’une législation du Congrès sur l’IA, qui semble peu probable à court terme.
Le décret exige que le ministère du Commerce élabore des lignes directrices pour l’étiquetage du contenu généré par l’IA. Les entreprises d’IA utiliseront ces conseils pour développer des outils d’étiquetage et de filigrane dont la Maison-Blanche a bon espoir qu’ils seront adoptés par les agences fédérales. L’étiquetage des origines du contenu textuel, audio et visuel permettra de savoir plus facilement ce qui a été créé à l’aide de l’IA en ligne.
Toutefois, le problème est que ces technologies sont encore en chantier. Il n’existe actuellement aucun moyen totalement fiable d’étiqueter un texte ou de déterminer si un élément de contenu a été généré automatiquement. Les outils de détection de l’IA sont encore faciles à tromper.
Le décret n’exige pas non plus que les acteurs industriels ou les agences gouvernementales utilisent ces technologies. La Maison-Blanche déclare qu’elle prévoit de faire progresser le développement et l’utilisation de ces technologies avec la Coalition for Content Provenance and Authenticity, appelée initiative C2PA. La coalition n’entretient pas de relation officielle avec la Maison-Blanche et on ne sait pas exactement à quoi ressemblerait cette collaboration.
Bien que le décret de Biden aille au-delà des précédentes tentatives du gouvernement américain de réglementer l’IA, il met beaucoup plus l’accent sur l’établissement de meilleures pratiques et de normes que sur la manière d’appliquer les nouvelles directives, ou même sur l’éventualité que celles-ci soient appliquées.
L’ordonnance appelle l’Institut national des normes et technologies (NIST) à établir des normes pour des tests approfondis destinés à mettre à l’épreuve les modèles afin d’exposer leurs vulnérabilités avant leur lancement. Cependant, le décret n’exige pas que les entreprises d’IA adhèrent aux normes ou aux méthodes de test du NIST.
Dans une autre analyse, la Brookings Institution fait également intervenir une multitude d’experts à propos de cet enjeu.
Dans un article de la MIT Technology Review, les experts consultés affirment que l’accent mis sur l’étiquetage du contenu, le tatouage numérique et la transparence représente une avancée importante.
Dans un décret exécutif publié par le président Joe Biden, les États-Unis ont défini leur ensemble de règles et de lignes directrices en matière d’intelligence artificielle (IA) le plus complet à ce jour. L’ordonnance exigera plus de transparence de la part des entreprises d’IA sur le fonctionnement de leurs modèles et établira une série de nouvelles normes, notamment pour l’étiquetage du contenu généré par l’IA.
L’objectif du décret, selon la Maison-Blanche, est d’améliorer « la sûreté et la sécurité de l’IA ». Celui-ci comprend également l’obligation pour les développeurs de partager les résultats des tests de sécurité des nouveaux modèles d’IA avec le gouvernement américain si les tests montrent que la technologie pourrait présenter un risque pour la sécurité nationale.
Le décret renforce les exigences volontaires en matière de politique d’IA que la Maison-Blanche a fixées en août, bien qu’il manque de précisions sur la manière dont les règles seront appliquées. Les décrets sont également susceptibles d’être annulés à tout moment par un futur président, et ils n’ont pas la légitimité d’une législation du Congrès sur l’IA, qui semble peu probable à court terme.
Le décret exige que le ministère du Commerce élabore des lignes directrices pour l’étiquetage du contenu généré par l’IA. Les entreprises d’IA utiliseront ces conseils pour développer des outils d’étiquetage et de filigrane dont la Maison-Blanche a bon espoir qu’ils seront adoptés par les agences fédérales. L’étiquetage des origines du contenu textuel, audio et visuel permettra de savoir plus facilement ce qui a été créé à l’aide de l’IA en ligne.
Toutefois, le problème est que ces technologies sont encore en chantier. Il n’existe actuellement aucun moyen totalement fiable d’étiqueter un texte ou de déterminer si un élément de contenu a été généré automatiquement. Les outils de détection de l’IA sont encore faciles à tromper.
Le décret n’exige pas non plus que les acteurs industriels ou les agences gouvernementales utilisent ces technologies. La Maison-Blanche déclare qu’elle prévoit de faire progresser le développement et l’utilisation de ces technologies avec la Coalition for Content Provenance and Authenticity, appelée initiative C2PA. La coalition n’entretient pas de relation officielle avec la Maison-Blanche et on ne sait pas exactement à quoi ressemblerait cette collaboration.
Bien que le décret de Biden aille au-delà des précédentes tentatives du gouvernement américain de réglementer l’IA, il met beaucoup plus l’accent sur l’établissement de meilleures pratiques et de normes que sur la manière d’appliquer les nouvelles directives, ou même sur l’éventualité que celles-ci soient appliquées.
L’ordonnance appelle l’Institut national des normes et technologies (NIST) à établir des normes pour des tests approfondis destinés à mettre à l’épreuve les modèles afin d’exposer leurs vulnérabilités avant leur lancement. Cependant, le décret n’exige pas que les entreprises d’IA adhèrent aux normes ou aux méthodes de test du NIST.
Dans une autre analyse, la Brookings Institution fait également intervenir une multitude d’experts à propos de cet enjeu.