Quelle autonomie accorder aux agents d’intelligence artificielle?
Un article de la Harvard Business Review explore le dilemme de l’autonomie accordée aux agents d’intelligence artificielle (IA). En effet, nous assistons de plus en plus à une transition de simples agents conversationnels (chatbots) d’IA à de véritables agents cognitifs, des systèmes capables de réfléchir de manière stratégique, de planifier et d’apprendre de leurs succès et de leurs échecs.
Une supervision humaine est donc souvent nécessaire pour éviter les catastrophes, mais une supervision excessive peut réduire les gains de productivité. En effet, une trop grande supervision peut limiter l’efficacité des agents d’IA, tandis que trop peu risque de nuire à la réputation et à la stabilité financière de l’entreprise. Selon l’auteur, la solution réside dans la compréhension des risques plutôt que dans leur ampleur.
En effet, il propose d’instaurer des approches pour équilibrer l’autonomie et la supervision, tout en permettant aux agents d’IA d’apprendre et de s’adapter en temps réel. Pour ce faire, il y a trois types de problèmes à prendre en considération pour déterminer le niveau d’autonomie à accorder à un agent d’IA.
- Problèmes complexes : Ces problèmes sont détaillés et difficiles à gérer, mais ils peuvent être définis et consignés. Ils conviennent bien à une autonomie élevée avec une supervision minimale, comme l’ajustement automatique des taux d’intérêt par les banques. Les problèmes complexes conviennent aux systèmes déterministes basés sur des règles, comme l’automatisation des processus robotisés. Une fois configurés, ces systèmes peuvent fonctionner de manière autonome avec une supervision minimale, nécessitant seulement des vérifications occasionnelles pour s’assurer que les paramètres restent dans des limites acceptables.
- Problèmes ambigus : Ces problèmes comportent de nombreuses variables avec des valeurs indéterminées, ce qui rend l’automatisation simple difficile. Toutefois, en recueillant plus de données, on peut améliorer la prédiction des résultats. Une voiture autonome naviguant autour d’un obstacle inattendu est un exemple de problème ambigu qu’on peut améliorer si on a plus d’informations et si le contexte est plus détaillé.
- Problèmes incertains : Ce sont les plus difficiles à définir, car ils ne bénéficient pas de plus de données en raison du manque de connaissances dans le domaine (ex. : une pandémie sans protocoles établis ou la fragilité des chaînes d’approvisionnement mondiales). Dans ces cas, il est dangereux de donner une grande autonomie aux agents d’IA.
Un article de la Harvard Business Review explore le dilemme de l’autonomie accordée aux agents d’intelligence artificielle (IA). En effet, nous assistons de plus en plus à une transition de simples agents conversationnels (chatbots) d’IA à de véritables agents cognitifs, des systèmes capables de réfléchir de manière stratégique, de planifier et d’apprendre de leurs succès et de leurs échecs.
Une supervision humaine est donc souvent nécessaire pour éviter les catastrophes, mais une supervision excessive peut réduire les gains de productivité. En effet, une trop grande supervision peut limiter l’efficacité des agents d’IA, tandis que trop peu risque de nuire à la réputation et à la stabilité financière de l’entreprise. Selon l’auteur, la solution réside dans la compréhension des risques plutôt que dans leur ampleur.
En effet, il propose d’instaurer des approches pour équilibrer l’autonomie et la supervision, tout en permettant aux agents d’IA d’apprendre et de s’adapter en temps réel. Pour ce faire, il y a trois types de problèmes à prendre en considération pour déterminer le niveau d’autonomie à accorder à un agent d’IA.
- Problèmes complexes : Ces problèmes sont détaillés et difficiles à gérer, mais ils peuvent être définis et consignés. Ils conviennent bien à une autonomie élevée avec une supervision minimale, comme l’ajustement automatique des taux d’intérêt par les banques. Les problèmes complexes conviennent aux systèmes déterministes basés sur des règles, comme l’automatisation des processus robotisés. Une fois configurés, ces systèmes peuvent fonctionner de manière autonome avec une supervision minimale, nécessitant seulement des vérifications occasionnelles pour s’assurer que les paramètres restent dans des limites acceptables.
- Problèmes ambigus : Ces problèmes comportent de nombreuses variables avec des valeurs indéterminées, ce qui rend l’automatisation simple difficile. Toutefois, en recueillant plus de données, on peut améliorer la prédiction des résultats. Une voiture autonome naviguant autour d’un obstacle inattendu est un exemple de problème ambigu qu’on peut améliorer si on a plus d’informations et si le contexte est plus détaillé.
- Problèmes incertains : Ce sont les plus difficiles à définir, car ils ne bénéficient pas de plus de données en raison du manque de connaissances dans le domaine (ex. : une pandémie sans protocoles établis ou la fragilité des chaînes d’approvisionnement mondiales). Dans ces cas, il est dangereux de donner une grande autonomie aux agents d’IA.