La technologie intelligente GPT-4 est une impasse pour la communauté des scientifiques
Nature note la fascination des scientifiques pour la nouvelle technologie intelligente GPT-4, proposée par la compagnie OpenAI. Il s'agit de la dernière mouture du modèle de langage qui propulse son agent conversationnel ChatGPT.
Apparemment, les capacités de cette nouvelle version de l'intelligence artificielle dite « générative » se sont grandement améliorées. Elle serait désormais capable de gérer des images ainsi que de créer du texte de façon bien plus efficace. En guise d'exemple, Nature mentionne que ce modèle de langage aurait réussi l'examen juridique du barreau américain, en Californie, avec un taux de succès de 90 %. La version précédente de ChatGPT n'avait obtenu, dit-on, que 10 %.
Selon les chercheurs, les capacités améliorées de cette technologie auraient le potentiel de transformer la science. Cependant, l'impossibilité d'accéder à son code sous-jacent ou de vérifier les données pour comprendre son fonctionnement réel serait une source de frustration, voire d'inquiétude. En effet, en raison des implications sur la sécurité, ce modèle à source fermée présenterait des impasses pour la communauté scientifique. Cette technologie serait donc moins intéressante pour la recherche.
Par exemple, Nature mentionne le cas d'un ingénieur qui a travaillé pour OpenAI afin de tester GPT-4, et qui s'interroge sur les conséquences du fait d'alimenter cette technologie avec des données de pointe ou de la connecter à des ressources trop sophistiquées. On craint en effet qu'elle puisse, par exemple, permettre la conception de produits chimiques dangereux. Dans ce cas-ci, les concepteurs ont modifié leur modèle pour décourager GPT-4 de créer des contenus dangereux, illégaux ou préjudiciables.
Un autre problème est la proposition de fausses informations ou d'« hallucinations », dans le jargon scientifique. Selon les experts, cette faiblesse serait inévitable du fait que ces modèles, comme GPT-4, sont conçus pour « prédire le mot suivant dans une phrase ». D'ailleurs, l'opacité entourant les données de formation de GPT-4 rendrait aussi très encombrante la tâche de vérifier et d'atténuer le risque d'utiliser des données biaisées.
De ce fait, ces modèles ne seraient pas complètement fiables, et seraient donc inappropriés pour la recherche. Quoique OpenAI affirme avoir amélioré la sécurité dans GPT-4, les scientifiques sont d'avis que sans la possibilité d'accéder aux données utilisées pour la formation du modèle, ces assurances ne suffisent pas.
Enfin, on craint que ces systèmes intelligents ne deviennent graduellement l'apanage des grandes entreprises technologiques. C'est pourquoi les scientifiques soulignent le besoin d'encourager une plus grande collaboration avec celles-ci pour assurer que la technologie est correctement testée et vérifiée.
Nature note la fascination des scientifiques pour la nouvelle technologie intelligente GPT-4, proposée par la compagnie OpenAI. Il s'agit de la dernière mouture du modèle de langage qui propulse son agent conversationnel ChatGPT.
Apparemment, les capacités de cette nouvelle version de l'intelligence artificielle dite « générative » se sont grandement améliorées. Elle serait désormais capable de gérer des images ainsi que de créer du texte de façon bien plus efficace. En guise d'exemple, Nature mentionne que ce modèle de langage aurait réussi l'examen juridique du barreau américain, en Californie, avec un taux de succès de 90 %. La version précédente de ChatGPT n'avait obtenu, dit-on, que 10 %.
Selon les chercheurs, les capacités améliorées de cette technologie auraient le potentiel de transformer la science. Cependant, l'impossibilité d'accéder à son code sous-jacent ou de vérifier les données pour comprendre son fonctionnement réel serait une source de frustration, voire d'inquiétude. En effet, en raison des implications sur la sécurité, ce modèle à source fermée présenterait des impasses pour la communauté scientifique. Cette technologie serait donc moins intéressante pour la recherche.
Par exemple, Nature mentionne le cas d'un ingénieur qui a travaillé pour OpenAI afin de tester GPT-4, et qui s'interroge sur les conséquences du fait d'alimenter cette technologie avec des données de pointe ou de la connecter à des ressources trop sophistiquées. On craint en effet qu'elle puisse, par exemple, permettre la conception de produits chimiques dangereux. Dans ce cas-ci, les concepteurs ont modifié leur modèle pour décourager GPT-4 de créer des contenus dangereux, illégaux ou préjudiciables.
Un autre problème est la proposition de fausses informations ou d'« hallucinations », dans le jargon scientifique. Selon les experts, cette faiblesse serait inévitable du fait que ces modèles, comme GPT-4, sont conçus pour « prédire le mot suivant dans une phrase ». D'ailleurs, l'opacité entourant les données de formation de GPT-4 rendrait aussi très encombrante la tâche de vérifier et d'atténuer le risque d'utiliser des données biaisées.
De ce fait, ces modèles ne seraient pas complètement fiables, et seraient donc inappropriés pour la recherche. Quoique OpenAI affirme avoir amélioré la sécurité dans GPT-4, les scientifiques sont d'avis que sans la possibilité d'accéder aux données utilisées pour la formation du modèle, ces assurances ne suffisent pas.
Enfin, on craint que ces systèmes intelligents ne deviennent graduellement l'apanage des grandes entreprises technologiques. C'est pourquoi les scientifiques soulignent le besoin d'encourager une plus grande collaboration avec celles-ci pour assurer que la technologie est correctement testée et vérifiée.