L’intelligence artificielle hybride serait la meilleure option pour bâtir les capacités en IA des entreprises
Tech Funnels signale que malgré le battage médiatique, l’intelligence artificielle (IA) générative – la célèbre technologie bâtie sur les grands modèles de langage (GML) – pourrait ne pas toujours être la meilleure option pour les entreprises.
Apparemment, la plupart des moteurs d’IA montrent des signes de difficultés lorsqu’on leur assigne des tâches spécifiques à un créneau ou à un domaine. Il y aurait des performances insuffisantes dans les tâches mathématiques, une propension à inventer des données et une incapacité à expliquer comment le modèle produit des résultats. Ce seraient des problèmes typiques des réseaux neuronaux « connexionnistes » basés sur le fonctionnement du cerveau humain. Dans cette perspective, la création de valeur réelle nécessiterait plus que des modèles d’IA construits sur de grands ensembles de données.
Dans ce contexte, on se demande si l’IA hybride – qui combine la puissance de l’IA symbolique et non symbolique – pourrait être la réponse. Dans le cas de l’IA symbolique, la technologie tente d’exprimer clairement les connaissances humaines à l’aide de règles logiques et de faits interprétés à partir d’entrées « symboliques ». En revanche, l’intelligence artificielle non symbolique est la tentative de simuler le cerveau humain et son réseau complexe de connexions neuronales. Les réseaux de neurones et l’apprentissage profond en sont deux exemples intéressants.
Dans ce modèle, l’IA symbolique serait le « fournisseur » des données de formation pertinentes à l’IA non symbolique, laquelle gère la résolution de la tâche. Ces informations sont produites par des êtres humains très qualifiés, par exemple, des vétérans de l’industrie, des experts en la matière, des travailleurs qualifiés et des personnes possédant des connaissances tribales non codées.
Bref, l’IA hybride correspondrait ainsi à l’amélioration des modèles d’IA grâce à l’utilisation de l’apprentissage automatique, de l’apprentissage profond et des réseaux neuronaux en plus de l’expertise humaine. Cela permettrait le développement de modèles d’IA spécifiques à un cas d’utilisation avec la plus grande précision ou le plus grand potentiel de prédiction.
L’IA hybride serait pertinente dans les environnements d’entreprise, car la tentative de résoudre un problème d’affaires avec des données insuffisantes peut entraîner la mise en place d’une solution déficitaire entraînant un risque de discrimination. Dans ce cas-ci, l’IA hybride pourrait constituer une base solide pour le développement de l’IA en entreprise.
Tech Funnels mentionne l’utilisation de l’IA hybride dans l’évaluation des risques d’un essai clinique. Dans ce cas-ci, un modèle d’apprentissage automatique identifie les caractéristiques essentielles de l’essai, comme le lieu, la durée, le numéro du sujet et les variables statistiques. Ces résultats sont incorporés dans un modèle de risque symbolique, élaboré manuellement, qui convertit les paramètres en une valeur de risque (élevé, moyen ou faible) pour l’utilisateur. L’intelligence humaine est essentielle pour spécifier une règle raisonnable et logique permettant de convertir les données protocolaires en valeur de risque.
Tech Funnels signale que malgré le battage médiatique, l’intelligence artificielle (IA) générative – la célèbre technologie bâtie sur les grands modèles de langage (GML) – pourrait ne pas toujours être la meilleure option pour les entreprises.
Apparemment, la plupart des moteurs d’IA montrent des signes de difficultés lorsqu’on leur assigne des tâches spécifiques à un créneau ou à un domaine. Il y aurait des performances insuffisantes dans les tâches mathématiques, une propension à inventer des données et une incapacité à expliquer comment le modèle produit des résultats. Ce seraient des problèmes typiques des réseaux neuronaux « connexionnistes » basés sur le fonctionnement du cerveau humain. Dans cette perspective, la création de valeur réelle nécessiterait plus que des modèles d’IA construits sur de grands ensembles de données.
Dans ce contexte, on se demande si l’IA hybride – qui combine la puissance de l’IA symbolique et non symbolique – pourrait être la réponse. Dans le cas de l’IA symbolique, la technologie tente d’exprimer clairement les connaissances humaines à l’aide de règles logiques et de faits interprétés à partir d’entrées « symboliques ». En revanche, l’intelligence artificielle non symbolique est la tentative de simuler le cerveau humain et son réseau complexe de connexions neuronales. Les réseaux de neurones et l’apprentissage profond en sont deux exemples intéressants.
Dans ce modèle, l’IA symbolique serait le « fournisseur » des données de formation pertinentes à l’IA non symbolique, laquelle gère la résolution de la tâche. Ces informations sont produites par des êtres humains très qualifiés, par exemple, des vétérans de l’industrie, des experts en la matière, des travailleurs qualifiés et des personnes possédant des connaissances tribales non codées.
Bref, l’IA hybride correspondrait ainsi à l’amélioration des modèles d’IA grâce à l’utilisation de l’apprentissage automatique, de l’apprentissage profond et des réseaux neuronaux en plus de l’expertise humaine. Cela permettrait le développement de modèles d’IA spécifiques à un cas d’utilisation avec la plus grande précision ou le plus grand potentiel de prédiction.
L’IA hybride serait pertinente dans les environnements d’entreprise, car la tentative de résoudre un problème d’affaires avec des données insuffisantes peut entraîner la mise en place d’une solution déficitaire entraînant un risque de discrimination. Dans ce cas-ci, l’IA hybride pourrait constituer une base solide pour le développement de l’IA en entreprise.
Tech Funnels mentionne l’utilisation de l’IA hybride dans l’évaluation des risques d’un essai clinique. Dans ce cas-ci, un modèle d’apprentissage automatique identifie les caractéristiques essentielles de l’essai, comme le lieu, la durée, le numéro du sujet et les variables statistiques. Ces résultats sont incorporés dans un modèle de risque symbolique, élaboré manuellement, qui convertit les paramètres en une valeur de risque (élevé, moyen ou faible) pour l’utilisateur. L’intelligence humaine est essentielle pour spécifier une règle raisonnable et logique permettant de convertir les données protocolaires en valeur de risque.