Une définition de l’intelligence artificielle à code source ouvert a été trouvée
Selon un article de la MIT Technology Review, les chercheurs sont depuis longtemps en désaccord quant à ce qui constitue une intelligence artificielle (IA) à code source ouvert. Un groupe influent vient de proposer une réponse.
L’IA à code source ouvert est partout aujourd’hui. Le problème est que personne ne s’accorde sur ce qu’elle signifie réellement. L’Open Source Initiative (OSI), l’organisme autoproclamé arbitre de ce qui constitue un code source ouvert, a publié une nouvelle définition qui, espère-t-il, aidera les législateurs à élaborer des réglementations pour protéger les consommateurs des risques liés à l’IA.
Bien que l’OSI ait réalisé de nombreuses publications sur ce qui constitue une technologie à code source ouvert dans d’autres domaines, il s’agit de sa première tentative de définir le terme pour les modèles d’IA. Il a demandé à un groupe de 70 personnes, composé de chercheurs, d’avocats, de décideurs politiques et d’activistes, ainsi que de représentants de grandes entreprises technologiques comme Meta, Google et Amazon, d’en proposer une définition opérationnelle.
Selon le groupe, un système d’IA à code source ouvert peut être utilisé à n’importe quelle fin sans qu’il soit nécessaire d’obtenir une autorisation, et les chercheurs devraient pouvoir inspecter ses composants et étudier son fonctionnement.
Il devrait également être possible de modifier le système à n’importe quelle fin, y compris de changer son résultat, et de le partager avec d’autres, avec ou sans modifications, à n’importe quelle fin. En outre, la norme tente de définir un niveau de transparence pour les données de formation, le code source et les pondérations d’un modèle donné.
L’absence de normes dans ce domaine posait problème. Certains experts soutiennent que les modèles librement accessibles de Meta et de Google, qui sont ouverts à tous pour inspection et adaptation, ne sont pas non plus véritablement à code source ouvert, en raison des licences qui restreignent ce que les utilisateurs peuvent faire avec les modèles et parce que les ensembles de données d’entraînement ne sont pas rendus publics.
« Les entreprises sont connues pour utiliser ce terme à mauvais escient lors de la commercialisation de leurs modèles », explique un chercheur chez Hugging Face, une plateforme de création et de partage de modèles d’IA. Décrire les modèles comme étant « à code source ouvert » peut les faire percevoir comme plus dignes de confiance, même si les chercheurs ne sont pas en mesure de déterminer de manière indépendante s’ils le sont réellement.
Une conseillère principale de Mozilla et participante au processus de l’OSI affirme que certaines parties de la définition ont été relativement faciles à accepter, notamment la nécessité de révéler les pondérations des modèles (les paramètres qui aident à déterminer comment un modèle d’IA génère un résultat). D’autres parties des délibérations ont été plus controversées, en particulier la question de savoir comment les données d’entraînement devraient être rendues publiques.
En fin de compte, la nouvelle définition exige que les modèles en code source ouvert fournissent des informations sur les données d’entraînement dans la mesure où « une personne qualifiée peut recréer un système sensiblement équivalent en utilisant les mêmes données ou des données similaires ». Il ne s’agit pas d’une obligation générale de partager tous les ensembles de données de formation, mais cela va aussi plus loin que ce que font de nombreux modèles propriétaires ou même des modèles qui s’affichent comme étant à code ouvertaujourd’hui. Il s’agit d’un compromis.
Selon un article de la MIT Technology Review, les chercheurs sont depuis longtemps en désaccord quant à ce qui constitue une intelligence artificielle (IA) à code source ouvert. Un groupe influent vient de proposer une réponse.
L’IA à code source ouvert est partout aujourd’hui. Le problème est que personne ne s’accorde sur ce qu’elle signifie réellement. L’Open Source Initiative (OSI), l’organisme autoproclamé arbitre de ce qui constitue un code source ouvert, a publié une nouvelle définition qui, espère-t-il, aidera les législateurs à élaborer des réglementations pour protéger les consommateurs des risques liés à l’IA.
Bien que l’OSI ait réalisé de nombreuses publications sur ce qui constitue une technologie à code source ouvert dans d’autres domaines, il s’agit de sa première tentative de définir le terme pour les modèles d’IA. Il a demandé à un groupe de 70 personnes, composé de chercheurs, d’avocats, de décideurs politiques et d’activistes, ainsi que de représentants de grandes entreprises technologiques comme Meta, Google et Amazon, d’en proposer une définition opérationnelle.
Selon le groupe, un système d’IA à code source ouvert peut être utilisé à n’importe quelle fin sans qu’il soit nécessaire d’obtenir une autorisation, et les chercheurs devraient pouvoir inspecter ses composants et étudier son fonctionnement.
Il devrait également être possible de modifier le système à n’importe quelle fin, y compris de changer son résultat, et de le partager avec d’autres, avec ou sans modifications, à n’importe quelle fin. En outre, la norme tente de définir un niveau de transparence pour les données de formation, le code source et les pondérations d’un modèle donné.
L’absence de normes dans ce domaine posait problème. Certains experts soutiennent que les modèles librement accessibles de Meta et de Google, qui sont ouverts à tous pour inspection et adaptation, ne sont pas non plus véritablement à code source ouvert, en raison des licences qui restreignent ce que les utilisateurs peuvent faire avec les modèles et parce que les ensembles de données d’entraînement ne sont pas rendus publics.
« Les entreprises sont connues pour utiliser ce terme à mauvais escient lors de la commercialisation de leurs modèles », explique un chercheur chez Hugging Face, une plateforme de création et de partage de modèles d’IA. Décrire les modèles comme étant « à code source ouvert » peut les faire percevoir comme plus dignes de confiance, même si les chercheurs ne sont pas en mesure de déterminer de manière indépendante s’ils le sont réellement.
Une conseillère principale de Mozilla et participante au processus de l’OSI affirme que certaines parties de la définition ont été relativement faciles à accepter, notamment la nécessité de révéler les pondérations des modèles (les paramètres qui aident à déterminer comment un modèle d’IA génère un résultat). D’autres parties des délibérations ont été plus controversées, en particulier la question de savoir comment les données d’entraînement devraient être rendues publiques.
En fin de compte, la nouvelle définition exige que les modèles en code source ouvert fournissent des informations sur les données d’entraînement dans la mesure où « une personne qualifiée peut recréer un système sensiblement équivalent en utilisant les mêmes données ou des données similaires ». Il ne s’agit pas d’une obligation générale de partager tous les ensembles de données de formation, mais cela va aussi plus loin que ce que font de nombreux modèles propriétaires ou même des modèles qui s’affichent comme étant à code ouvertaujourd’hui. Il s’agit d’un compromis.