L’inévitable imbrication du droit et de l’intelligence artificielle
Un article de RollCall souligne que les grands cabinets d’avocats font appel de façon croissante aux experts en science des données pour renforcer leurs pratiques de conformité en matière d’intelligence artificielle (IA). Il s’agirait d’un domaine émergent où l’on doit composer avec les problèmes juridiques potentiels que génère le comportement souvent très réaliste de l’IA.
Les experts en science des données et les technologues ont pour rôle de tester les systèmes de leurs clients afin de détecter les biais et garantir la conformité aux réglementations émergentes. De plus, cette démarche leur offrirait la chance de voir comment leurs propres offres juridiques pourraient être améliorées grâce à l’utilisation de l’IA. Bref, aux dires des experts, les questions juridiques et technologiques sont de plus en plus liées.
C’est une tendance qu’on ne trouve pas dans d’autres domaines du droit plus établis. En effet, les experts constatent que contrairement à d’autres domaines où les experts juridiques traitent régulièrement des détails complexes – comme la réglementation environnementale ou la sécurité automobile –, l’IA pose des défis uniques qui nécessitent l’expertise des technologues. Il y aurait donc une redéfinition de l’infrastructure de la pratique du droit qui combine à la fois des compétences juridiques et informatiques, ajoutent les spécialistes.
L’article mentionne le cas du cabinet d’avocats DLA Piper, une multinationale qui, selon les informations affichées sur son site Web, possède une filiale appelée Tritura. Elle emploie 23 experts en science des données qui conseillent ses clients sur l’utilisation de l’IA, de l’apprentissage automatique et d’autres technologies pilotées par des algorithmes.
Plus précisément, pour vérifier si les modèles d’IA des clients fonctionnent dans les limites des réglementations et des lois, DLA Piper utilise régulièrement une technique appelée « red teaming », qui permet aux responsables technologiques de simuler des attaques sur des systèmes physiques ou numériques pour analyser leur comportement.
Cette imbrication de la technologie et du droit serait poussée par l’intérêt des clients à identifier le modèle de gouvernance le plus approprié pour déployer l’IA et à connaître les processus, les contrôles, ainsi que les lois et réglementations qui peuvent s’appliquer.
En outre, l’article note que le Congrès américain n’a pas encore adopté de législation générale couvrant l’utilisation de l’IA. Cependant, les experts mentionnent que la loi sur l’IA de l’Union européenne (UE), qui est entrée en vigueur en août dernier, s’appliquerait aux multinationales qui déploient des systèmes d’IA, si ces systèmes sont utilisés pour prendre des décisions qui affectent les citoyens de l’UE.
Apparemment, cette loi européenne, qui interdit la discrimination et les préjugés, aura un impact certain sur les employeurs et les professionnels des ressources humaines qui utilisent – ou prévoient le faire – des systèmes d’IA dans leurs opérations, leur recrutement, leur évaluation des performances, leur gestion des talents et leur suivi des effectifs. Il ne serait donc pas surprenant que les clients recherchent des conseils sur la création d’un ensemble de pratiques qui seraient acceptables dans toutes les juridictions.
Un article de RollCall souligne que les grands cabinets d’avocats font appel de façon croissante aux experts en science des données pour renforcer leurs pratiques de conformité en matière d’intelligence artificielle (IA). Il s’agirait d’un domaine émergent où l’on doit composer avec les problèmes juridiques potentiels que génère le comportement souvent très réaliste de l’IA.
Les experts en science des données et les technologues ont pour rôle de tester les systèmes de leurs clients afin de détecter les biais et garantir la conformité aux réglementations émergentes. De plus, cette démarche leur offrirait la chance de voir comment leurs propres offres juridiques pourraient être améliorées grâce à l’utilisation de l’IA. Bref, aux dires des experts, les questions juridiques et technologiques sont de plus en plus liées.
C’est une tendance qu’on ne trouve pas dans d’autres domaines du droit plus établis. En effet, les experts constatent que contrairement à d’autres domaines où les experts juridiques traitent régulièrement des détails complexes – comme la réglementation environnementale ou la sécurité automobile –, l’IA pose des défis uniques qui nécessitent l’expertise des technologues. Il y aurait donc une redéfinition de l’infrastructure de la pratique du droit qui combine à la fois des compétences juridiques et informatiques, ajoutent les spécialistes.
L’article mentionne le cas du cabinet d’avocats DLA Piper, une multinationale qui, selon les informations affichées sur son site Web, possède une filiale appelée Tritura. Elle emploie 23 experts en science des données qui conseillent ses clients sur l’utilisation de l’IA, de l’apprentissage automatique et d’autres technologies pilotées par des algorithmes.
Plus précisément, pour vérifier si les modèles d’IA des clients fonctionnent dans les limites des réglementations et des lois, DLA Piper utilise régulièrement une technique appelée « red teaming », qui permet aux responsables technologiques de simuler des attaques sur des systèmes physiques ou numériques pour analyser leur comportement.
Cette imbrication de la technologie et du droit serait poussée par l’intérêt des clients à identifier le modèle de gouvernance le plus approprié pour déployer l’IA et à connaître les processus, les contrôles, ainsi que les lois et réglementations qui peuvent s’appliquer.
En outre, l’article note que le Congrès américain n’a pas encore adopté de législation générale couvrant l’utilisation de l’IA. Cependant, les experts mentionnent que la loi sur l’IA de l’Union européenne (UE), qui est entrée en vigueur en août dernier, s’appliquerait aux multinationales qui déploient des systèmes d’IA, si ces systèmes sont utilisés pour prendre des décisions qui affectent les citoyens de l’UE.
Apparemment, cette loi européenne, qui interdit la discrimination et les préjugés, aura un impact certain sur les employeurs et les professionnels des ressources humaines qui utilisent – ou prévoient le faire – des systèmes d’IA dans leurs opérations, leur recrutement, leur évaluation des performances, leur gestion des talents et leur suivi des effectifs. Il ne serait donc pas surprenant que les clients recherchent des conseils sur la création d’un ensemble de pratiques qui seraient acceptables dans toutes les juridictions.