L’Union européenne fortifie sa législation pour resserrer la responsabilité des fabricants de produits d’intelligence artificielle (IA)
Fortune nous apprend que l’Union européenne (UE) vient de publier une série de propositions qui mettent à jour la responsabilité civile pour ceux qui déploient les systèmes d’intelligence artificielle (IA). Selon Lexology, la directive sur la responsabilité liée à l’intelligence artificielle (AILD) a pour objectif de garantir que « les personnes lésées par des systèmes d’intelligence artificielle bénéficient du même niveau de protection que les personnes lésées par d’autres technologies ».
La Commission européenne précise que les propositions visent à adapter les règles de responsabilité au défi particulier posé par le numérique, l’économie circulaire et l’incidence des chaînes de valeur mondiales. Tout d’abord, il s’agit de moderniser les règles sur la responsabilité stricte des fabricants pour les produits défectueux allant de la technologie intelligente aux produits pharmaceutiques. En cas de préjudice, cela permettra aux victimes de l’utilisation de ces produits d’obtenir une indemnisation équitable. De plus, il y a intérêt à harmoniser, pour la première fois, les règles nationales de responsabilité en matière d’IA, ce qui devrait faciliter l’indemnisation des victimes de dommages liés à l’IA.
Fortune rappelle que l’UE a déjà une loi concernant l’IA qui est en discussion législative, laquelle définit les exigences dans les cas d’utilisations à haut et faible risque de l’IA. La première catégorie comprend les situations pouvant affecter la santé, la liberté fondamentale et le bien-être financier d’une personne. Dans ces cas-ci, la loi obligerait les entreprises proposant de produits d’IA à haut risque à faire bien plus de tests pour s’assurer que la technologie pourra être interprétée correctement par l’utilisateur éventuel. De plus, il faudrait conserver un registre d’audit. La deuxième catégorie, celle des risques faibles, porte, par exemple, sur les risques liés au marketing ou à la personnalisation des offres de vente au détail.
En outre, faisant référence aux propos du commissaire à la justice Didier Reynders, Tech Crunch ajoute que la modernisation du cadre légal sur les responsabilités civiles donnera également une sécurité juridique et un horizon de certitude aux entreprises. En effet, les lois actuelles ne seraient pas conçues pour traiter les dommages causés par des produits et services activés par l’IA.
Enfin, Fortune détaille que selon la nouvelle directive européenne, la perte de données est un préjudice potentiel pour lequel quelqu’un peut demander des dommages et intérêts en responsabilité civile. Ensuite, la proposition permettrait à un tribunal de demander à une entreprise de fournir des preuves sur le fonctionnement d’un système d’IA à haut risque. Cela dit, la divulgation d’informations doit être mesurée et proportionnelle à la nature de la demande afin de ne pas compromettre des secrets industriels.
Fortune nous apprend que l’Union européenne (UE) vient de publier une série de propositions qui mettent à jour la responsabilité civile pour ceux qui déploient les systèmes d’intelligence artificielle (IA). Selon Lexology, la directive sur la responsabilité liée à l’intelligence artificielle (AILD) a pour objectif de garantir que « les personnes lésées par des systèmes d’intelligence artificielle bénéficient du même niveau de protection que les personnes lésées par d’autres technologies ».
La Commission européenne précise que les propositions visent à adapter les règles de responsabilité au défi particulier posé par le numérique, l’économie circulaire et l’incidence des chaînes de valeur mondiales. Tout d’abord, il s’agit de moderniser les règles sur la responsabilité stricte des fabricants pour les produits défectueux allant de la technologie intelligente aux produits pharmaceutiques. En cas de préjudice, cela permettra aux victimes de l’utilisation de ces produits d’obtenir une indemnisation équitable. De plus, il y a intérêt à harmoniser, pour la première fois, les règles nationales de responsabilité en matière d’IA, ce qui devrait faciliter l’indemnisation des victimes de dommages liés à l’IA.
Fortune rappelle que l’UE a déjà une loi concernant l’IA qui est en discussion législative, laquelle définit les exigences dans les cas d’utilisations à haut et faible risque de l’IA. La première catégorie comprend les situations pouvant affecter la santé, la liberté fondamentale et le bien-être financier d’une personne. Dans ces cas-ci, la loi obligerait les entreprises proposant de produits d’IA à haut risque à faire bien plus de tests pour s’assurer que la technologie pourra être interprétée correctement par l’utilisateur éventuel. De plus, il faudrait conserver un registre d’audit. La deuxième catégorie, celle des risques faibles, porte, par exemple, sur les risques liés au marketing ou à la personnalisation des offres de vente au détail.
En outre, faisant référence aux propos du commissaire à la justice Didier Reynders, Tech Crunch ajoute que la modernisation du cadre légal sur les responsabilités civiles donnera également une sécurité juridique et un horizon de certitude aux entreprises. En effet, les lois actuelles ne seraient pas conçues pour traiter les dommages causés par des produits et services activés par l’IA.
Enfin, Fortune détaille que selon la nouvelle directive européenne, la perte de données est un préjudice potentiel pour lequel quelqu’un peut demander des dommages et intérêts en responsabilité civile. Ensuite, la proposition permettrait à un tribunal de demander à une entreprise de fournir des preuves sur le fonctionnement d’un système d’IA à haut risque. Cela dit, la divulgation d’informations doit être mesurée et proportionnelle à la nature de la demande afin de ne pas compromettre des secrets industriels.