La conception d’un cadre réglementaire pour l’IA fait des progrès en Europe malgré l’évolution rapide d’une technologie complexe
Pour DataSheet (Forbes), la progression de la réglementation de l'IA en Europe, contrairement à la situation qui prévaut aux États-Unis et en Chine, offre un exemple précieux de gestion d'une technologie dont la complexité et l'évolution vertigineuse représentent un très grand défi.
Cela étant dit, les progrès sont apparemment plus lents que prévu. DataSheet (Fortune) signale qu'après deux ans, la loi sur l'IA proposée par la Commission européenne continue à être discutée dans le processus législatif de l'Union européenne (UE). Il semblerait, cependant, que ce retard pourrait être bénéfique, car il permettrait de s'attarder aux aspects d'usage plus général de l'IA.
En effet, la proposition initiale de la Commission visait l'interdiction de l'utilisation, par exemple, des systèmes de notation sociale basés sur l'IA par les autorités publiques ainsi que des systèmes qui pourraient manipuler les personnes par le biais de techniques subliminales. De même, ce projet de loi imposait des exigences strictes aux systèmes intelligents considérés comme étant à haut risque par la menace qu'ils pourraient représenter pour la sécurité ou les droits civils fondamentaux.
De là la pertinence pour les législateurs de porter attention à de nouvelles technologies révolutionnaires d'IA qui font une entrée fracassante sur le marché. Il est question, par exemple, de la technologie GPT et de sa version publique ChatGPT, proposée par OpenAI – un modèle de langage autorégressif qui utilise l'apprentissage en profondeur (deep learning) pour produire un texte de type humain. De plus, l'avènement de modèles linguistiques rivaux de Google et Meta est à prévoir.
C'est à cause de ces nouveaux défis que les législateurs, dit-on, ont de la difficulté à conclure une loi définitive. De plus, il y a aussi la question des multiples parties prenantes. En effet, la Commission ne serait que l'une des trois grandes institutions de l'UE qui doivent débattre de la nouvelle législation. À la fin de l'année dernière, le Conseil de l'UE aurait proposé sa propre version du projet de loi, laquelle fait référence à l'IA à usage général (GPAI) comme à des systèmes à haut risque qui doivent être réglementés. Il est à noter qu'il s'agirait d'une approche très controversée, qui est critiquée pour être trop floue et pour proposer des obligations qui portent trop de responsabilités légales à l'égard des projets d'IA à source ouverte.
Plus récemment, des législateurs du Parlement européen qui examinent le projet de loi ont proposé leur propre définition de la GPAI comme étant « un système d'IA qui est formé à partir de larges données à grande échelle, qui est conçu pour la généralité des résultats et peut être adapté à un large éventail de tâches ». Apparemment, cela couvrirait les implications de GPT-4, qui vient d'être lancé, obligeant OpenAI à se soumettre à des audits externes des performances, de la prévisibilité et de la sécurité du système, et même de son interprétabilité.
Pour DataSheet (Forbes), la progression de la réglementation de l'IA en Europe, contrairement à la situation qui prévaut aux États-Unis et en Chine, offre un exemple précieux de gestion d'une technologie dont la complexité et l'évolution vertigineuse représentent un très grand défi.
Cela étant dit, les progrès sont apparemment plus lents que prévu. DataSheet (Fortune) signale qu'après deux ans, la loi sur l'IA proposée par la Commission européenne continue à être discutée dans le processus législatif de l'Union européenne (UE). Il semblerait, cependant, que ce retard pourrait être bénéfique, car il permettrait de s'attarder aux aspects d'usage plus général de l'IA.
En effet, la proposition initiale de la Commission visait l'interdiction de l'utilisation, par exemple, des systèmes de notation sociale basés sur l'IA par les autorités publiques ainsi que des systèmes qui pourraient manipuler les personnes par le biais de techniques subliminales. De même, ce projet de loi imposait des exigences strictes aux systèmes intelligents considérés comme étant à haut risque par la menace qu'ils pourraient représenter pour la sécurité ou les droits civils fondamentaux.
De là la pertinence pour les législateurs de porter attention à de nouvelles technologies révolutionnaires d'IA qui font une entrée fracassante sur le marché. Il est question, par exemple, de la technologie GPT et de sa version publique ChatGPT, proposée par OpenAI – un modèle de langage autorégressif qui utilise l'apprentissage en profondeur (deep learning) pour produire un texte de type humain. De plus, l'avènement de modèles linguistiques rivaux de Google et Meta est à prévoir.
C'est à cause de ces nouveaux défis que les législateurs, dit-on, ont de la difficulté à conclure une loi définitive. De plus, il y a aussi la question des multiples parties prenantes. En effet, la Commission ne serait que l'une des trois grandes institutions de l'UE qui doivent débattre de la nouvelle législation. À la fin de l'année dernière, le Conseil de l'UE aurait proposé sa propre version du projet de loi, laquelle fait référence à l'IA à usage général (GPAI) comme à des systèmes à haut risque qui doivent être réglementés. Il est à noter qu'il s'agirait d'une approche très controversée, qui est critiquée pour être trop floue et pour proposer des obligations qui portent trop de responsabilités légales à l'égard des projets d'IA à source ouverte.
Plus récemment, des législateurs du Parlement européen qui examinent le projet de loi ont proposé leur propre définition de la GPAI comme étant « un système d'IA qui est formé à partir de larges données à grande échelle, qui est conçu pour la généralité des résultats et peut être adapté à un large éventail de tâches ». Apparemment, cela couvrirait les implications de GPT-4, qui vient d'être lancé, obligeant OpenAI à se soumettre à des audits externes des performances, de la prévisibilité et de la sécurité du système, et même de son interprétabilité.