Il ne peut y avoir de réglementation de l’IA sans transparence des entreprises
Dans un texte d’opinion publié dans le Financial Times, la directrice de la politique internationale au Cyber Policy Center de l’Université de Stanford et conseillère spéciale auprès de la Commission européenne estime que les entreprises d’intelligence artificielle (IA) deviennent de plus en plus secrètes à mesure que leur pouvoir se développe.
Il ne se passe pratiquement pas un jour sans une nouvelle proposition sur la manière de réglementer l’IA. Toutes ces suggestions reflètent un désir urgent de faire quelque chose, même s’il n’y a pas de consensus sur ce que devrait être ce « quelque chose ». Les enjeux sont certainement nombreux, des questions d’emploi et de discrimination jusqu’à la sécurité nationale et la démocratie. Mais les dirigeants politiques peuvent-ils réellement élaborer les politiques voulues alors qu’ils connaissent si peu l’IA?
Même les technologues se posent de sérieuses questions sur le comportement des grands modèles de langage. Plus tôt cette année, Sam Bowman, professeur à la New York University, a publié « Eight Things to Know about Large Language Models », un article saisissant qui révèle que ces modèles se comportent souvent de manière imprévisible et que les experts ne disposent pas de techniques fiables pour les orienter.
De telles questions devraient nous faire réfléchir sérieusement. Mais au lieu de donner la priorité à la transparence, les sociétés d’IA protègent les données et les paramètres algorithmiques par des marques de commerce. L’IA propriétaire est notoirement inintelligible – et devient de plus en plus secrète – alors même que le pouvoir de ces entreprises augmente.
Le récent Foundation Model Transparency Index, publié par l’Institute for Human-Centered Artificial Intelligence de Stanford, met en lumière tout ce que nous ne savons pas, et ne saurons peut-être jamais. Les chercheurs ont évalué les grands modèles de langage des chefs de file du marché : OpenAI, Meta, Anthropic et Hugging Face, en examinant tout, des données jusqu’au travail humain impliqué dans leurs politiques de construction et de distribution. Parmi les 100 indicateurs, les chercheurs ont examiné l’utilisation de données protégées par le droit d’auteur, les mesures de confidentialité et les tests de sécurité. Le modèle le mieux noté, Llama 2 de Meta, n’a reçu que 54 sur 100 : un F retentissant s’il s’agissait d’un article étudiant.
La transparence n’est pas seulement un idéal important. Il s’agit d’un élément essentiel à la réussite de la responsabilisation de l’IA. Sans cela, les chercheurs ne peuvent pas évaluer les modèles fondamentaux pour détecter les biais ou les menaces à la sécurité. Les régulateurs et le public ignoreront totalement les risques inhérents aux technologies destinées aux soins de santé ou aux forces de l’ordre. Ce désert d’information donne également aux chefs d’entreprise une influence disproportionnée sur la façon dont les politiciens comprennent la technologie.
Il est essentiel de créer les conditions propices à l’enquête, à l’examen et à la surveillance pour produire une réglementation de l’IA bien informée. Les modèles fondamentaux ont besoin de normes de transparence. L’opacité persistante fera obstacle à la responsabilité et permettra aux entreprises d’agir de manière imprudente.
Dans un texte d’opinion publié dans le Financial Times, la directrice de la politique internationale au Cyber Policy Center de l’Université de Stanford et conseillère spéciale auprès de la Commission européenne estime que les entreprises d’intelligence artificielle (IA) deviennent de plus en plus secrètes à mesure que leur pouvoir se développe.
Il ne se passe pratiquement pas un jour sans une nouvelle proposition sur la manière de réglementer l’IA. Toutes ces suggestions reflètent un désir urgent de faire quelque chose, même s’il n’y a pas de consensus sur ce que devrait être ce « quelque chose ». Les enjeux sont certainement nombreux, des questions d’emploi et de discrimination jusqu’à la sécurité nationale et la démocratie. Mais les dirigeants politiques peuvent-ils réellement élaborer les politiques voulues alors qu’ils connaissent si peu l’IA?
Même les technologues se posent de sérieuses questions sur le comportement des grands modèles de langage. Plus tôt cette année, Sam Bowman, professeur à la New York University, a publié « Eight Things to Know about Large Language Models », un article saisissant qui révèle que ces modèles se comportent souvent de manière imprévisible et que les experts ne disposent pas de techniques fiables pour les orienter.
De telles questions devraient nous faire réfléchir sérieusement. Mais au lieu de donner la priorité à la transparence, les sociétés d’IA protègent les données et les paramètres algorithmiques par des marques de commerce. L’IA propriétaire est notoirement inintelligible – et devient de plus en plus secrète – alors même que le pouvoir de ces entreprises augmente.
Le récent Foundation Model Transparency Index, publié par l’Institute for Human-Centered Artificial Intelligence de Stanford, met en lumière tout ce que nous ne savons pas, et ne saurons peut-être jamais. Les chercheurs ont évalué les grands modèles de langage des chefs de file du marché : OpenAI, Meta, Anthropic et Hugging Face, en examinant tout, des données jusqu’au travail humain impliqué dans leurs politiques de construction et de distribution. Parmi les 100 indicateurs, les chercheurs ont examiné l’utilisation de données protégées par le droit d’auteur, les mesures de confidentialité et les tests de sécurité. Le modèle le mieux noté, Llama 2 de Meta, n’a reçu que 54 sur 100 : un F retentissant s’il s’agissait d’un article étudiant.
La transparence n’est pas seulement un idéal important. Il s’agit d’un élément essentiel à la réussite de la responsabilisation de l’IA. Sans cela, les chercheurs ne peuvent pas évaluer les modèles fondamentaux pour détecter les biais ou les menaces à la sécurité. Les régulateurs et le public ignoreront totalement les risques inhérents aux technologies destinées aux soins de santé ou aux forces de l’ordre. Ce désert d’information donne également aux chefs d’entreprise une influence disproportionnée sur la façon dont les politiciens comprennent la technologie.
Il est essentiel de créer les conditions propices à l’enquête, à l’examen et à la surveillance pour produire une réglementation de l’IA bien informée. Les modèles fondamentaux ont besoin de normes de transparence. L’opacité persistante fera obstacle à la responsabilité et permettra aux entreprises d’agir de manière imprudente.