Le parti du scepticisme à l'égard de l'IA générative
Selon l'opinion de l'éditeur du Financial Times en matière de technologie, bien que le battage médiatique autour de l'IA générative soit énorme, certaines vérités inconfortables commencent également à être soulevées à son sujet.
Des entreprises multimilliardaires déclarent que l'IA est la nouvelle « électricité » et réorganisent l'ensemble de leurs activités autour d'elle. Les investisseurs en capital-risque ont également injecté de l'argent dans le secteur. Cinquante des jeunes pousses d'IA générative les plus prometteuses, identifiées par CB Insights, ont levé plus de 19 milliards de dollars américains de financement depuis 2019. Parmi celles-ci, 11 ont désormais une valorisation supérieure à 1 milliard de dollars.
Même McKinsey estime que la technologie pourrait ajouter entre 2 600 et 4 400 milliards de dollars de valeur économique par an sur 63 exemples d'utilisations analysés, allant du secteur bancaire aux sciences de la vie. En d'autres termes, l'IA générative pourrait créer une nouvelle économie britannique chaque année (le produit intérieur brut du pays était de 3 100 milliards de dollars en 2021).
Mais que se passera-t-il s'ils se trompent? Dans une série d'articles provocateurs, le technologue Gary Marcus explore la possibilité que nous assistions à une « correction massive et déchirante » des valorisations alors que les investisseurs réalisent que l'IA générative ne fonctionne pas très bien et manque d'applications commerciales vraiment convaincantes. « Les revenus ne sont pas encore là et pourraient ne jamais venir », écrit-il.
Marcus, un cofondateur du Center for the Advancement of Trustworthy AI qui a témoigné au Congrès américain cette année, est depuis longtemps sceptique quant à l'intelligence des modèles de réseaux neuronaux qui ont précédé les derniers agents conversationnels, tels que ChatGPT d'OpenAI. Mais il soulève également de nouvelles vérités sur l'IA générative, comme le manque de fiabilité des modèles eux-mêmes. Comme cela est maintenant clair pour des millions d'utilisateurs, l'un des plus grands inconvénients de la technologie est qu'elle hallucine – ou fabule – à propos des faits.
Certains modèles d'IA fonctionnent comme des machines probabilistes, prédisant les réponses à partir de modèles de données plutôt que de présenter un raisonnement. Les entreprises technologiques disent qu'elles peuvent réduire les erreurs (d'hallucinations) en améliorant la compréhension contextuelle de leurs systèmes. Mais Marcus soutient que les hallucinations resteront une caractéristique, plutôt qu'un bogue, des modèles d'IA générative, impossible à corriger en utilisant leur méthodologie actuelle. « Il y a un fantasme voulant que si vous ajoutez plus de données, cela fonctionnera. Mais vous ne pouvez pas réussir à écraser le problème avec les données », dit-il.
Encore plus préoccupante est l'idée selon laquelle le contenu produit par l'IA générative pollue les ensembles de données sur lesquels les futurs systèmes seront formés, menaçant de ce que certains ont appelé « l'effondrement du modèle ». En ajoutant plus d'informations imparfaites et une désinformation délibérée à notre base de connaissances, les systèmes d'IA générative produiront plus de bêtises, plutôt que moins.
À l'heure actuelle, seuls les fournisseurs infonuagiques et les fabricants de puces génèrent vraiment des profits avec l'IA générative.
Selon l'opinion de l'éditeur du Financial Times en matière de technologie, bien que le battage médiatique autour de l'IA générative soit énorme, certaines vérités inconfortables commencent également à être soulevées à son sujet.
Des entreprises multimilliardaires déclarent que l'IA est la nouvelle « électricité » et réorganisent l'ensemble de leurs activités autour d'elle. Les investisseurs en capital-risque ont également injecté de l'argent dans le secteur. Cinquante des jeunes pousses d'IA générative les plus prometteuses, identifiées par CB Insights, ont levé plus de 19 milliards de dollars américains de financement depuis 2019. Parmi celles-ci, 11 ont désormais une valorisation supérieure à 1 milliard de dollars.
Même McKinsey estime que la technologie pourrait ajouter entre 2 600 et 4 400 milliards de dollars de valeur économique par an sur 63 exemples d'utilisations analysés, allant du secteur bancaire aux sciences de la vie. En d'autres termes, l'IA générative pourrait créer une nouvelle économie britannique chaque année (le produit intérieur brut du pays était de 3 100 milliards de dollars en 2021).
Mais que se passera-t-il s'ils se trompent? Dans une série d'articles provocateurs, le technologue Gary Marcus explore la possibilité que nous assistions à une « correction massive et déchirante » des valorisations alors que les investisseurs réalisent que l'IA générative ne fonctionne pas très bien et manque d'applications commerciales vraiment convaincantes. « Les revenus ne sont pas encore là et pourraient ne jamais venir », écrit-il.
Marcus, un cofondateur du Center for the Advancement of Trustworthy AI qui a témoigné au Congrès américain cette année, est depuis longtemps sceptique quant à l'intelligence des modèles de réseaux neuronaux qui ont précédé les derniers agents conversationnels, tels que ChatGPT d'OpenAI. Mais il soulève également de nouvelles vérités sur l'IA générative, comme le manque de fiabilité des modèles eux-mêmes. Comme cela est maintenant clair pour des millions d'utilisateurs, l'un des plus grands inconvénients de la technologie est qu'elle hallucine – ou fabule – à propos des faits.
Certains modèles d'IA fonctionnent comme des machines probabilistes, prédisant les réponses à partir de modèles de données plutôt que de présenter un raisonnement. Les entreprises technologiques disent qu'elles peuvent réduire les erreurs (d'hallucinations) en améliorant la compréhension contextuelle de leurs systèmes. Mais Marcus soutient que les hallucinations resteront une caractéristique, plutôt qu'un bogue, des modèles d'IA générative, impossible à corriger en utilisant leur méthodologie actuelle. « Il y a un fantasme voulant que si vous ajoutez plus de données, cela fonctionnera. Mais vous ne pouvez pas réussir à écraser le problème avec les données », dit-il.
Encore plus préoccupante est l'idée selon laquelle le contenu produit par l'IA générative pollue les ensembles de données sur lesquels les futurs systèmes seront formés, menaçant de ce que certains ont appelé « l'effondrement du modèle ». En ajoutant plus d'informations imparfaites et une désinformation délibérée à notre base de connaissances, les systèmes d'IA générative produiront plus de bêtises, plutôt que moins.
À l'heure actuelle, seuls les fournisseurs infonuagiques et les fabricants de puces génèrent vraiment des profits avec l'IA générative.