La qualité des données a une influence décisive sur la pertinence de l’intelligence artificielle générative
Un article de TechTarget signale qu’avec la popularisation croissante de l’intelligence artificielle (IA) générative, la qualité des données est devenue une exigence incontournable pour que les entreprises puissent tirer pleinement profit du potentiel transformationnel de cette innovation.
En effet, grâce à cette technologie, les entreprises peuvent orienter et accélérer la prise de décisions à une échelle sans précédent. Cependant, pour que les résultats de l’IA générative soient pertinents et puissent contribuer efficacement au processus décisionnel, les données qui sont utilisées pour informer les modèles et les applications doivent être précises.
Hormis la qualité, la pertinence des modèles et applications d’IA générative dépend de la quantité de données utilisées. Plus il y a de données, plus les résultats à la requête d’un utilisateur seront pertinents. Cela s’explique par le fait que les résultats ne sont pas basés sur des points de données individuels, mais plutôt sur des agrégations de données. Ainsi donc, un haut volume de données réduirait le risque d’obtenir des résultats incorrects, ce que l’on appelle des « hallucinations de l’IA ».
L’automatisation des pipelines de données serait incontournable pour permettre d’en obtenir un volume suffisant afin d’éviter ces hallucinations. Cependant, cela comporterait des risques, du fait que les êtres humains sont incapables de surveiller chaque point de données ou des ensembles de données à chaque étape pour vérifier leur qualité. C’est pourquoi, selon les experts, la qualité des données doit être vérifiée dès le départ et les contrôles doivent être effectués sur les résultats à la fin.
D’ailleurs, étant donné la robustesse des décisions basées sur les données, les organisations souhaiteraient qu’un plus grand nombre d’employés pussent en faire une utilisation analytique et participer ainsi au processus de prise de décision. Cependant, l’article signale qu’en raison de la complexité des plateformes d’analyse, seulement environ un quart des employés utilisent les données et l’analytique dans le cadre de leur flux de travail.
En effet, la gestion de l’analyse est complexe et demande des compétences en codage pour préparer et interroger les données, ainsi qu’une formation en littératie des données pour les analyser et les interpréter. Quoique les fournisseurs aient tenté de simplifier l’utilisation de leurs outils avec des fonctionnalités de programmation schématisée et sans codage et des fonctionnalités de traitement du langage naturel, les résultats, semble-t-il, ont été plutôt décevants.
Selon l’article, l’IA générative peut réduire les barrières à une utilisation plus intense des analyses. Puisque les grands modèles de langage possèdent un vocabulaire très vaste, il est possible d’effectuer des interactions significatives en langage naturel. Cela réduit le besoin de compétences en codage et permet aux concepteurs d’écrire des commandes en langage naturel que l’IA générative peut traduire en code. De plus, l’interaction en langage naturel est facilitée par le fait que les grands modèles de langage peuvent déduire l’intention.
Enfin, lorsque l’IA générative est combinée aux données propriétaires d’une entreprise, tout employé disposant d’un téléphone intelligent et d’une autorisation appropriée peut soudainement travailler avec des données et utiliser des analyses pour l’aider à prendre des décisions.
Un article de TechTarget signale qu’avec la popularisation croissante de l’intelligence artificielle (IA) générative, la qualité des données est devenue une exigence incontournable pour que les entreprises puissent tirer pleinement profit du potentiel transformationnel de cette innovation.
En effet, grâce à cette technologie, les entreprises peuvent orienter et accélérer la prise de décisions à une échelle sans précédent. Cependant, pour que les résultats de l’IA générative soient pertinents et puissent contribuer efficacement au processus décisionnel, les données qui sont utilisées pour informer les modèles et les applications doivent être précises.
Hormis la qualité, la pertinence des modèles et applications d’IA générative dépend de la quantité de données utilisées. Plus il y a de données, plus les résultats à la requête d’un utilisateur seront pertinents. Cela s’explique par le fait que les résultats ne sont pas basés sur des points de données individuels, mais plutôt sur des agrégations de données. Ainsi donc, un haut volume de données réduirait le risque d’obtenir des résultats incorrects, ce que l’on appelle des « hallucinations de l’IA ».
L’automatisation des pipelines de données serait incontournable pour permettre d’en obtenir un volume suffisant afin d’éviter ces hallucinations. Cependant, cela comporterait des risques, du fait que les êtres humains sont incapables de surveiller chaque point de données ou des ensembles de données à chaque étape pour vérifier leur qualité. C’est pourquoi, selon les experts, la qualité des données doit être vérifiée dès le départ et les contrôles doivent être effectués sur les résultats à la fin.
D’ailleurs, étant donné la robustesse des décisions basées sur les données, les organisations souhaiteraient qu’un plus grand nombre d’employés pussent en faire une utilisation analytique et participer ainsi au processus de prise de décision. Cependant, l’article signale qu’en raison de la complexité des plateformes d’analyse, seulement environ un quart des employés utilisent les données et l’analytique dans le cadre de leur flux de travail.
En effet, la gestion de l’analyse est complexe et demande des compétences en codage pour préparer et interroger les données, ainsi qu’une formation en littératie des données pour les analyser et les interpréter. Quoique les fournisseurs aient tenté de simplifier l’utilisation de leurs outils avec des fonctionnalités de programmation schématisée et sans codage et des fonctionnalités de traitement du langage naturel, les résultats, semble-t-il, ont été plutôt décevants.
Selon l’article, l’IA générative peut réduire les barrières à une utilisation plus intense des analyses. Puisque les grands modèles de langage possèdent un vocabulaire très vaste, il est possible d’effectuer des interactions significatives en langage naturel. Cela réduit le besoin de compétences en codage et permet aux concepteurs d’écrire des commandes en langage naturel que l’IA générative peut traduire en code. De plus, l’interaction en langage naturel est facilitée par le fait que les grands modèles de langage peuvent déduire l’intention.
Enfin, lorsque l’IA générative est combinée aux données propriétaires d’une entreprise, tout employé disposant d’un téléphone intelligent et d’une autorisation appropriée peut soudainement travailler avec des données et utiliser des analyses pour l’aider à prendre des décisions.