Une option de rechange à la vision de l’IA des géants du numérique
Selon un article du New York Times, l’Allen Institute for AI, une organisation à but non lucratif, tente de démocratiser la recherche de pointe. Son nouveau directeur général appelle à une « ouverture radicale » pour démocratiser la recherche et développement dans le domaine de l’intelligence artificielle (IA). Il propose de divulguer les détails techniques des modèles d’IA, les données sur lesquelles ils ont été formés, les ajustements effectués et les outils utilisés pour évaluer leur comportement.
L’Institut a lancé une initiative ambitieuse visant à créer une option de rechange aux géants de la technologie comme Google et aux jeunes pousses comme OpenAI au moyen d’un système d’IA disponible gratuitement. Dans le cadre d’un processus industriel à code source libre, d’autres chercheurs seront autorisés à examiner et à utiliser ce nouveau système et les données qui y sont introduites.
La position adoptée par l’Allen Institute s’inscrit dans un débat acharné sur le degré d’ouverture ou de fermeture que devraient avoir les nouvelles technologies d’IA. L’ouverture de l’IA dite générative, qui alimente des dialogueurs comme ChatGPT d’OpenAI et Bard de Google, conduirait-elle à davantage d’innovation et de possibilités? Ou ouvrirait-elle plutôt la boîte de Pandore des dommages numériques?
Les définitions de ce que signifie « l’ouverture » dans le contexte de l’IA générative varient. Traditionnellement, avec les projets logiciels à code source libre, n’importe qui peut consulter le code, repérer les bogues informatiques et faire des suggestions. Il existe des règles qui déterminent si des modifications doivent être apportées ou non. C’est ainsi que fonctionnent les projets de code source libre populaires derrière le système d’exploitation Linux, le serveur Web Apache et le navigateur Firefox.
Mais la technologie de l’IA générative implique bien plus que du code. Les modèles de l’IA sont entraînés et peaufinés avec d’énormes quantités de données. Même si les intentions sont bonnes, préviennent les experts, la voie empruntée par l’Institut Allen est intrinsèquement risquée.
« Les décisions concernant l’ouverture des systèmes d’IA sont irréversibles et seront probablement parmi les plus déterminantes de notre époque », déclare un expert de l’Université Harvard, qui estime que des accords internationaux sont nécessaires pour déterminer quelles technologies ne doivent pas être rendues publiques.
Les principaux fabricants d’agents conversationnels – OpenAI et Google – gardent leur nouvelle technologie fermée, sans révéler comment leur IA fonctionne ni comment leurs modèles sont entraînés. Selon ces entreprises, cette approche réduit le risque que les criminels détournent la technologie pour inonder davantage Internet de désinformation et d’escroqueries.
Pour leur part, les partisans des systèmes ouverts reconnaissent les risques, mais affirment que la meilleure solution est d’avoir davantage de personnes intelligentes travaillant pour les combattre. Le directeur général du Allen Insitute estime que le rôle de la société est de mieux comprendre et gérer les risques. L’ouverture est le meilleur moyen de trouver la sécurité et de partager les occasions d’affaires. « La réglementation ne résoudra pas ce problème à elle seule », déclare-t-il.
Les efforts de l’Allen Institute se heurtent à des obstacles redoutables. L’un des principaux problèmes est que la construction et l’amélioration d’un grand modèle génératif nécessitent une grande puissance de calcul.
Selon un article du New York Times, l’Allen Institute for AI, une organisation à but non lucratif, tente de démocratiser la recherche de pointe. Son nouveau directeur général appelle à une « ouverture radicale » pour démocratiser la recherche et développement dans le domaine de l’intelligence artificielle (IA). Il propose de divulguer les détails techniques des modèles d’IA, les données sur lesquelles ils ont été formés, les ajustements effectués et les outils utilisés pour évaluer leur comportement.
L’Institut a lancé une initiative ambitieuse visant à créer une option de rechange aux géants de la technologie comme Google et aux jeunes pousses comme OpenAI au moyen d’un système d’IA disponible gratuitement. Dans le cadre d’un processus industriel à code source libre, d’autres chercheurs seront autorisés à examiner et à utiliser ce nouveau système et les données qui y sont introduites.
La position adoptée par l’Allen Institute s’inscrit dans un débat acharné sur le degré d’ouverture ou de fermeture que devraient avoir les nouvelles technologies d’IA. L’ouverture de l’IA dite générative, qui alimente des dialogueurs comme ChatGPT d’OpenAI et Bard de Google, conduirait-elle à davantage d’innovation et de possibilités? Ou ouvrirait-elle plutôt la boîte de Pandore des dommages numériques?
Les définitions de ce que signifie « l’ouverture » dans le contexte de l’IA générative varient. Traditionnellement, avec les projets logiciels à code source libre, n’importe qui peut consulter le code, repérer les bogues informatiques et faire des suggestions. Il existe des règles qui déterminent si des modifications doivent être apportées ou non. C’est ainsi que fonctionnent les projets de code source libre populaires derrière le système d’exploitation Linux, le serveur Web Apache et le navigateur Firefox.
Mais la technologie de l’IA générative implique bien plus que du code. Les modèles de l’IA sont entraînés et peaufinés avec d’énormes quantités de données. Même si les intentions sont bonnes, préviennent les experts, la voie empruntée par l’Institut Allen est intrinsèquement risquée.
« Les décisions concernant l’ouverture des systèmes d’IA sont irréversibles et seront probablement parmi les plus déterminantes de notre époque », déclare un expert de l’Université Harvard, qui estime que des accords internationaux sont nécessaires pour déterminer quelles technologies ne doivent pas être rendues publiques.
Les principaux fabricants d’agents conversationnels – OpenAI et Google – gardent leur nouvelle technologie fermée, sans révéler comment leur IA fonctionne ni comment leurs modèles sont entraînés. Selon ces entreprises, cette approche réduit le risque que les criminels détournent la technologie pour inonder davantage Internet de désinformation et d’escroqueries.
Pour leur part, les partisans des systèmes ouverts reconnaissent les risques, mais affirment que la meilleure solution est d’avoir davantage de personnes intelligentes travaillant pour les combattre. Le directeur général du Allen Insitute estime que le rôle de la société est de mieux comprendre et gérer les risques. L’ouverture est le meilleur moyen de trouver la sécurité et de partager les occasions d’affaires. « La réglementation ne résoudra pas ce problème à elle seule », déclare-t-il.
Les efforts de l’Allen Institute se heurtent à des obstacles redoutables. L’un des principaux problèmes est que la construction et l’amélioration d’un grand modèle génératif nécessitent une grande puissance de calcul.