L’OCDE et le CIGI suivent les implications politiques de l’intelligence artificielle générative
Alors que ChatGPT est devenu un nom familier grâce à ses avantages apparents, les gouvernements et d’autres entités prennent des mesures pour contenir les risques qui y sont associés, soutient un blogue de l’OCDE.
Les décideurs politiques veulent un environnement politique favorable tout en atténuant les risques des modèles de langage d’intelligence artificielle (IA). Les modèles de langage d’IA présentent des risques pour les droits de la personne, la vie privée, l’équité, la fiabilité, la sécurité et la sûreté. Les modèles de langage d’IA peuvent aider les acteurs à manipuler les opinions à grande échelle et à automatiser la désinformation d’une manière qui peut menacer les valeurs démocratiques.
Ainsi, la poursuite du dialogue et de la recherche peut aider à atténuer les risques des modèles linguistiques complexes. Pour garantir que les avantages des technologies linguistiques seront largement partagés, les acteurs devront se préparer aux transitions économiques et doter les personnes des compétences nécessaires pour développer et utiliser des modèles linguistiques d’IA. Une coopération internationale, interdisciplinaire et multipartite pour des modèles de langage d’IA fiables est nécessaire afin de lutter contre les utilisations et les impacts néfastes.
Pour sa part, le président du Center for International Governance Innovation (CIGI), un groupe de réflexion canadien indépendant et non partisan sur la gouvernance mondiale, estime que les décideurs politiques ont des options limitées pour poursuivre la gouvernance mondiale de l’IA. Dans une allocution préparée pour le Council on Foreign Relations, il soutient que même le G7 n’est pas arrivé à un consensus sur la façon de procéder pour réglementer dans ces domaines. Essentiellement, deux écoles de pensée ont émergé : le premier groupe, dirigé par la France, l’Allemagne et l’Italie, adopte une approche large, fondée sur la loi et s’inspirant de la réglementation en vertu de la loi sur l’IA de l’Union européenne. Le Canada pourrait également se retrouver dans ce premier groupe, selon l’évolution de sa législation. Le deuxième groupe, dirigé par les États-Unis, le Japon et le Royaume-Uni, cherche à identifier des points plus étroits qui nécessitent une réglementation et à parvenir à une législation par l’entremise d’outils juridiques plus souples (bien que le projet de loi sur la responsabilité algorithmique des États-Unis constituerait une réglementation plus stricte s’il était adopté).
Une approche complémentaire, qui serait plus ascendante, pourrait avoir du potentiel, sur la base des leçons de la crise financière mondiale et de la création d’un groupe de coordination informel, le Conseil de stabilité financière. En effet, un « Conseil de stabilité numérique » habilité par les dirigeants du G7 ou un autre groupe informel à vocation technique pourrait mettre en place des processus multipartites pour coordonner les travaux sur la hiérarchisation des normes pour l’IA et assurer qu’il suit les dernières évolutions technologiques.
Une telle approche ne nécessiterait pas la création d’une nouvelle organisation ou la réforme des mandats des organisations existantes. La plupart des morceaux sont déjà en place et les organismes existants pourraient être mis à profit.
Alors que ChatGPT est devenu un nom familier grâce à ses avantages apparents, les gouvernements et d’autres entités prennent des mesures pour contenir les risques qui y sont associés, soutient un blogue de l’OCDE.
Les décideurs politiques veulent un environnement politique favorable tout en atténuant les risques des modèles de langage d’intelligence artificielle (IA). Les modèles de langage d’IA présentent des risques pour les droits de la personne, la vie privée, l’équité, la fiabilité, la sécurité et la sûreté. Les modèles de langage d’IA peuvent aider les acteurs à manipuler les opinions à grande échelle et à automatiser la désinformation d’une manière qui peut menacer les valeurs démocratiques.
Ainsi, la poursuite du dialogue et de la recherche peut aider à atténuer les risques des modèles linguistiques complexes. Pour garantir que les avantages des technologies linguistiques seront largement partagés, les acteurs devront se préparer aux transitions économiques et doter les personnes des compétences nécessaires pour développer et utiliser des modèles linguistiques d’IA. Une coopération internationale, interdisciplinaire et multipartite pour des modèles de langage d’IA fiables est nécessaire afin de lutter contre les utilisations et les impacts néfastes.
Pour sa part, le président du Center for International Governance Innovation (CIGI), un groupe de réflexion canadien indépendant et non partisan sur la gouvernance mondiale, estime que les décideurs politiques ont des options limitées pour poursuivre la gouvernance mondiale de l’IA. Dans une allocution préparée pour le Council on Foreign Relations, il soutient que même le G7 n’est pas arrivé à un consensus sur la façon de procéder pour réglementer dans ces domaines. Essentiellement, deux écoles de pensée ont émergé : le premier groupe, dirigé par la France, l’Allemagne et l’Italie, adopte une approche large, fondée sur la loi et s’inspirant de la réglementation en vertu de la loi sur l’IA de l’Union européenne. Le Canada pourrait également se retrouver dans ce premier groupe, selon l’évolution de sa législation. Le deuxième groupe, dirigé par les États-Unis, le Japon et le Royaume-Uni, cherche à identifier des points plus étroits qui nécessitent une réglementation et à parvenir à une législation par l’entremise d’outils juridiques plus souples (bien que le projet de loi sur la responsabilité algorithmique des États-Unis constituerait une réglementation plus stricte s’il était adopté).
Une approche complémentaire, qui serait plus ascendante, pourrait avoir du potentiel, sur la base des leçons de la crise financière mondiale et de la création d’un groupe de coordination informel, le Conseil de stabilité financière. En effet, un « Conseil de stabilité numérique » habilité par les dirigeants du G7 ou un autre groupe informel à vocation technique pourrait mettre en place des processus multipartites pour coordonner les travaux sur la hiérarchisation des normes pour l’IA et assurer qu’il suit les dernières évolutions technologiques.
Une telle approche ne nécessiterait pas la création d’une nouvelle organisation ou la réforme des mandats des organisations existantes. La plupart des morceaux sont déjà en place et les organismes existants pourraient être mis à profit.