Les experts s'inquiètent des hallucinations des modèles d'intelligence artificielle qui offrent, en toute confiance, des réponses inexactes
Fortune commente le phénomène de l'hallucination des modèles d'intelligence artificielle (IA), c'est-à-dire, la diffusion en toute confiance d'informations inexactes comme si elles étaient vraies. Même si les hallucinations sont généralement associées au cerveau humain ou animal, et non aux machines, IBM estime que d'un point de vue métaphorique, ce terme décrit avec précision la perception de modèles ou d'objets qui sont inexistants ou imperceptibles pour les observateurs humains.
Il va sans dire, selon Fortune, que cela pourrait avoir des répercussions majeures sur la manière dont les gens prennent leurs décisions, à mesure que l'IA s'imbrique de plus en plus dans leur vie personnelle. IBM précise que l'hallucination de l'IA survient lorsque les algorithmes d'IA produisent des résultats qui ne sont pas basés sur des données d'entraînement, sont mal décodés par le transformateur ou ne suivent aucun modèle identifiable. Dans de tels cas, l'IA « hallucine » la réponse.
Zapier spécifie les raisons qui expliqueraient un comportement hallucinatoire de l'IA :
- Des données de formation insuffisantes, obsolètes ou de mauvaise qualité, qui ont une répercussion directe sur la précision des réponses offertes par l'outil d'IA;
- Le surapprentissage, qui est directement lié à une disponibilité limitée des données de formation. Dans un tel cas, le modèle d'IA peut mémoriser toutes les entrées et les sorties appropriées, ce qui l'empêche de généraliser efficacement les nouvelles données;
- L'utilisation d'expressions idiomatiques ou d'expressions d'argot que le modèle d'IA ne reconnaît pas et face auxquelles il peut fournir des résultats absurdes;
- Les attaques contradictoires, où il y a une intention délibérée de confondre l'IA pour l'amener à produire des hallucinations.
La situation devient encore plus préoccupante lorsqu'on considère qu'il ne s'agirait pas d'un phénomène négligeable, loin de là. Fortune signale que, selon le New York Times, l'IA hallucinerait entre 3 % du temps (pour ChatGPT d'OpenAI) et jusqu'à 27 % du temps (pour PaLM de Google). Qui plus est, le problème de l'hallucination pourrait être bien plus répandu.
Selon une récente enquête effectuée par la plateforme ML Aporia auprès de 1 000 ingénieurs, tous secteurs confondus, 89 % des ingénieurs travaillant avec l'IA générative déclarent que leurs modèles montrent des signes d'« informatique délirante ». En général, 93 % des ingénieurs rencontreraient des problèmes avec leurs modèles, que ce soit sur une base quotidienne ou hebdomadaire. Quoique Fortune émette certaines réserves par rapport à l'exactitude des données de ML Aporia, il estime que ce n'est qu'une question de temps avant que les problèmes de l'IA hallucinante se répercutent dans la vie quotidienne des gens.
Fortune commente le phénomène de l'hallucination des modèles d'intelligence artificielle (IA), c'est-à-dire, la diffusion en toute confiance d'informations inexactes comme si elles étaient vraies. Même si les hallucinations sont généralement associées au cerveau humain ou animal, et non aux machines, IBM estime que d'un point de vue métaphorique, ce terme décrit avec précision la perception de modèles ou d'objets qui sont inexistants ou imperceptibles pour les observateurs humains.
Il va sans dire, selon Fortune, que cela pourrait avoir des répercussions majeures sur la manière dont les gens prennent leurs décisions, à mesure que l'IA s'imbrique de plus en plus dans leur vie personnelle. IBM précise que l'hallucination de l'IA survient lorsque les algorithmes d'IA produisent des résultats qui ne sont pas basés sur des données d'entraînement, sont mal décodés par le transformateur ou ne suivent aucun modèle identifiable. Dans de tels cas, l'IA « hallucine » la réponse.
Zapier spécifie les raisons qui expliqueraient un comportement hallucinatoire de l'IA :
- Des données de formation insuffisantes, obsolètes ou de mauvaise qualité, qui ont une répercussion directe sur la précision des réponses offertes par l'outil d'IA;
- Le surapprentissage, qui est directement lié à une disponibilité limitée des données de formation. Dans un tel cas, le modèle d'IA peut mémoriser toutes les entrées et les sorties appropriées, ce qui l'empêche de généraliser efficacement les nouvelles données;
- L'utilisation d'expressions idiomatiques ou d'expressions d'argot que le modèle d'IA ne reconnaît pas et face auxquelles il peut fournir des résultats absurdes;
- Les attaques contradictoires, où il y a une intention délibérée de confondre l'IA pour l'amener à produire des hallucinations.
La situation devient encore plus préoccupante lorsqu'on considère qu'il ne s'agirait pas d'un phénomène négligeable, loin de là. Fortune signale que, selon le New York Times, l'IA hallucinerait entre 3 % du temps (pour ChatGPT d'OpenAI) et jusqu'à 27 % du temps (pour PaLM de Google). Qui plus est, le problème de l'hallucination pourrait être bien plus répandu.
Selon une récente enquête effectuée par la plateforme ML Aporia auprès de 1 000 ingénieurs, tous secteurs confondus, 89 % des ingénieurs travaillant avec l'IA générative déclarent que leurs modèles montrent des signes d'« informatique délirante ». En général, 93 % des ingénieurs rencontreraient des problèmes avec leurs modèles, que ce soit sur une base quotidienne ou hebdomadaire. Quoique Fortune émette certaines réserves par rapport à l'exactitude des données de ML Aporia, il estime que ce n'est qu'une question de temps avant que les problèmes de l'IA hallucinante se répercutent dans la vie quotidienne des gens.