Les critères ESG et la dimension éthique de l’intelligence artificielle gagnent du terrain dans la planification des organisations
Selon MarshMcLennan et Brink, il y aurait une communauté, en pleine expansion, d’éthiciens de l’intelligence artificielle (IA) qui orientent les entreprises dans l’élaboration de codes de conduite concernant l’utilisation de cette technologie dans leurs opérations commerciales. Ultimement, il s’agirait d’analyser la performance opérationnelle de l’IA selon les critères environnementaux, sociaux et de gouvernance – la très célèbre norme ESG, qui mesure la responsabilité sociale des entreprises et des investisseurs.
Aux dires de Charles Radclyffe, PDG de EthicsGradeLimited consulté par MarshMcLennan et Brink, un système d’IA peut représenter un atout ou un passif pour une organisation. De ce fait, la gouvernance de cette technologie relève beaucoup de la norme ESG, alors que l’on constate un intérêt renouvelé des parties prenantes quant à la façon dont les organisations s’alignent sur les valeurs de la durabilité.
Apparemment, selon Radclyffe, on approche un point de basculement où la dimension de l’éthique de l’IA commence à devenir une priorité pour les entreprises. Même s’il faut attendre encore quelques années, des incidents comme le scandale de Cambridge Analytica ont montré au grand jour les risques associés à une technologie qui faisait miroiter la création de valeur à partir des données. Bref, les gens sont aujourd’hui plus conscients des dérives technologiques.
D’ailleurs, il ne faut pas être un expert en IA, dit-on, pour mettre en œuvre un code de conduite éthique. Un exemple est le projet de réglementation européen sur l’IA, qui définit certaines catégories d’activités organisationnelles où le déploiement des systèmes intelligents sera toujours considéré comme étant à haut risque pour les parties prenantes. Dans ces cas, il faudrait satisfaire à une norme minimale de conformité qui devrait être définie dans le cadre de la gestion de la qualité. D’ailleurs, ces contrôles devraient aussi s’étendre aux relations de l’entreprise avec ses fournisseurs.
Aux dires de Charles Radclyffe, il faut être vigilants devant les tentatives de confier l’élaboration des cadres éthiques pour l’IA exclusivement aux ingénieurs en informatique. Selon lui, il est possible d’emprunter beaucoup de bonnes pratiques à la communauté ESG, notamment quant à la façon dont une organisation doit s’engager auprès des parties prenantes pour comprendre leurs besoins et gérer les conflits potentiels.
D’ailleurs, l’accent sur l’engagement auprès des parties prenantes ciblées permettrait de surmonter la complexité associée à la mise en place d’un cadre éthique qui soit capable de rallier les intérêts les plus diversifiés. Bref, la démarche à suivre pour amener une organisation à se conformer aux valeurs ESG semblerait être l’identification des besoins de ses parties prenantes et la conception de stratégies pour surmonter les points de tension.
Selon MarshMcLennan et Brink, il y aurait une communauté, en pleine expansion, d’éthiciens de l’intelligence artificielle (IA) qui orientent les entreprises dans l’élaboration de codes de conduite concernant l’utilisation de cette technologie dans leurs opérations commerciales. Ultimement, il s’agirait d’analyser la performance opérationnelle de l’IA selon les critères environnementaux, sociaux et de gouvernance – la très célèbre norme ESG, qui mesure la responsabilité sociale des entreprises et des investisseurs.
Aux dires de Charles Radclyffe, PDG de EthicsGradeLimited consulté par MarshMcLennan et Brink, un système d’IA peut représenter un atout ou un passif pour une organisation. De ce fait, la gouvernance de cette technologie relève beaucoup de la norme ESG, alors que l’on constate un intérêt renouvelé des parties prenantes quant à la façon dont les organisations s’alignent sur les valeurs de la durabilité.
Apparemment, selon Radclyffe, on approche un point de basculement où la dimension de l’éthique de l’IA commence à devenir une priorité pour les entreprises. Même s’il faut attendre encore quelques années, des incidents comme le scandale de Cambridge Analytica ont montré au grand jour les risques associés à une technologie qui faisait miroiter la création de valeur à partir des données. Bref, les gens sont aujourd’hui plus conscients des dérives technologiques.
D’ailleurs, il ne faut pas être un expert en IA, dit-on, pour mettre en œuvre un code de conduite éthique. Un exemple est le projet de réglementation européen sur l’IA, qui définit certaines catégories d’activités organisationnelles où le déploiement des systèmes intelligents sera toujours considéré comme étant à haut risque pour les parties prenantes. Dans ces cas, il faudrait satisfaire à une norme minimale de conformité qui devrait être définie dans le cadre de la gestion de la qualité. D’ailleurs, ces contrôles devraient aussi s’étendre aux relations de l’entreprise avec ses fournisseurs.
Aux dires de Charles Radclyffe, il faut être vigilants devant les tentatives de confier l’élaboration des cadres éthiques pour l’IA exclusivement aux ingénieurs en informatique. Selon lui, il est possible d’emprunter beaucoup de bonnes pratiques à la communauté ESG, notamment quant à la façon dont une organisation doit s’engager auprès des parties prenantes pour comprendre leurs besoins et gérer les conflits potentiels.
D’ailleurs, l’accent sur l’engagement auprès des parties prenantes ciblées permettrait de surmonter la complexité associée à la mise en place d’un cadre éthique qui soit capable de rallier les intérêts les plus diversifiés. Bref, la démarche à suivre pour amener une organisation à se conformer aux valeurs ESG semblerait être l’identification des besoins de ses parties prenantes et la conception de stratégies pour surmonter les points de tension.