Australie : Projet de loi pour l’utilisation éthique de l’intelligence artificielle au sein du gouvernement
Un article publié par GovInsider rapporte que le gouvernement australien est en train d’élaborer une législation sur l’utilisation éthique de l’intelligence artificielle (IA) dans les agences gouvernementales. En juin dernier, le gouvernement a d’ailleurs publié un rapport sur l’élaboration d’un cadre national pour l’assurance de l’IA au sein du gouvernement, lequel sera suivi par les gouvernements fédéral, étatiques et territoriaux du pays. Ce cadre vise à tester les systèmes d’IA pour garantir leur fiabilité et leur conformité aux principes éthiques. Les principes éthiques qui y sont abordés sont les suivants :
- L’utilisation de systèmes d’IA qui bénéficient aux individus, à la société et à l’environnement;
- Le respect de la vie privée des individus;
- L’absence de discrimination.
Le cadre national australien recommande une approche basée sur les risques pour évaluer l’utilisation de l’IA, en tenant compte des principes éthiques de l'IA, de la transparence des données et des tests de performance. Il souligne également l’importance de la surveillance humaine et de la responsabilité dans l’utilisation de l’IA générative. En outre, le cadre aborde le droit des personnes de contester l’utilisation ou les résultats des systèmes d’IA.
La Nouvelle-Galles du Sud a été le premier État à développer une politique sur l’éthique de l’IA pour l’ensemble du gouvernement, en 2020, et un cadre pour guider l’application de l’IA, en 2022. Ce cadre sera intégré dans le cadre d’assurance numérique plus large de l’État. Le Conseil législatif de l’État a également publié un rapport avec 10 recommandations, dont la création d’un responsable en chef de l’IA pour maximiser l’utilisation responsable de l’IA par les départements gouvernementaux. Le rapport recommande également la création d’un comité mixte permanent sur la technologie et l’innovation afin d’assurer une surveillance continue de l’IA et d’autres technologies émergentes, ainsi que l’élaboration d’une analyse des lacunes réglementaires pour déterminer où de nouvelles lois pourraient être nécessaires.
Le gouvernement australien a par ailleurs répondu à une consultation sur l’utilisation sûre et responsable de l’IA, concluant que le cadre réglementaire actuel n’aborde pas suffisamment les risques liés à l’IA. On prévoit de développer une norme de sécurité de l’IA et d’explorer l’étiquetage volontaire du contenu généré par l’IA dans les contextes à haut risque.
Un article publié par GovInsider rapporte que le gouvernement australien est en train d’élaborer une législation sur l’utilisation éthique de l’intelligence artificielle (IA) dans les agences gouvernementales. En juin dernier, le gouvernement a d’ailleurs publié un rapport sur l’élaboration d’un cadre national pour l’assurance de l’IA au sein du gouvernement, lequel sera suivi par les gouvernements fédéral, étatiques et territoriaux du pays. Ce cadre vise à tester les systèmes d’IA pour garantir leur fiabilité et leur conformité aux principes éthiques. Les principes éthiques qui y sont abordés sont les suivants :
- L’utilisation de systèmes d’IA qui bénéficient aux individus, à la société et à l’environnement;
- Le respect de la vie privée des individus;
- L’absence de discrimination.
Le cadre national australien recommande une approche basée sur les risques pour évaluer l’utilisation de l’IA, en tenant compte des principes éthiques de l'IA, de la transparence des données et des tests de performance. Il souligne également l’importance de la surveillance humaine et de la responsabilité dans l’utilisation de l’IA générative. En outre, le cadre aborde le droit des personnes de contester l’utilisation ou les résultats des systèmes d’IA.
La Nouvelle-Galles du Sud a été le premier État à développer une politique sur l’éthique de l’IA pour l’ensemble du gouvernement, en 2020, et un cadre pour guider l’application de l’IA, en 2022. Ce cadre sera intégré dans le cadre d’assurance numérique plus large de l’État. Le Conseil législatif de l’État a également publié un rapport avec 10 recommandations, dont la création d’un responsable en chef de l’IA pour maximiser l’utilisation responsable de l’IA par les départements gouvernementaux. Le rapport recommande également la création d’un comité mixte permanent sur la technologie et l’innovation afin d’assurer une surveillance continue de l’IA et d’autres technologies émergentes, ainsi que l’élaboration d’une analyse des lacunes réglementaires pour déterminer où de nouvelles lois pourraient être nécessaires.
Le gouvernement australien a par ailleurs répondu à une consultation sur l’utilisation sûre et responsable de l’IA, concluant que le cadre réglementaire actuel n’aborde pas suffisamment les risques liés à l’IA. On prévoit de développer une norme de sécurité de l’IA et d’explorer l’étiquetage volontaire du contenu généré par l’IA dans les contextes à haut risque.