Les gouvernements accélèrent la mise en place des cadres réglementaires pour mieux guider le développement de l’intelligence artificielle
SeekingAlpha signale qu’en vue d’accroître la transparence et de freiner la propagation de contenus non authentiques dans la publicité politique, le géant technologique Google a introduit une nouvelle politique qui obligera les annonceurs politiques à divulguer « de manière visible » le matériel généré par l’intelligence artificielle (IA) dans leurs publicités. La directive entrera en vigueur à la mi-novembre, un an avant les élections présidentielles et parlementaires américaines.
Cette décision survient une semaine avant la rencontre prévue entre les hauts dirigeants de la technologie américains, notamment le PDG d’Alphabet, Sundar Pichai, et le PDG de Meta, Mark Zuckerberg, et le chef de la majorité au Sénat, Chuck Schumer, à Washington pour discuter de la réglementation de l’IA.
Reuters ajoute qu’en juin dernier, Schumer avait évoqué son intention d’organiser un forum pour « établir de nouvelles bases pour la politique en matière d’IA ». Schumer aurait souligné la pertinence de convoquer « les meilleurs développeurs d’IA, cadres, scientifiques, défenseurs, dirigeants communautaires, travailleurs, experts en sécurité nationale – tous réunis dans une même pièce, accomplissant des années de travail en quelques mois ».
Reuters note que cette rencontre s’inscrit dans la foulée d’initiatives entamées par plusieurs gouvernements dans le but de réfléchir aux meilleurs moyens d’atténuer les risques associés à cette technologie émergente, qui jouit d’une popularité croissante auprès des consommateurs. Cela s’avérerait d’autant plus pertinent au vu des investissements massifs dont bénéficie cette innovation depuis le lancement de ChatGPT d’OpenAI.
La nécessité de réglementer l’IA s’exprime depuis quelques années déjà. En 2019, la Harvard Business Review soulignait la pertinence de s’attaquer aux craintes que soulevait dans la population l’intégration croissante de l’intelligence artificielle dans les produits commerciaux, les services et les processus, notamment ceux de type décisionnel. Plus précisément, cette évolution technologique a réanimé le débat entourant la manière dont les données des gens sont utilisées par les logiciels, en particulier par des algorithmes complexes et évolutifs.
Dans ce contexte, la Harvard Business Review souligne la proactivité de l’Union européenne, qui, dans son livre blanc Sur l’intelligence artificielle – Une approche européenne de l’excellence et de la confiance de 2020 et sa proposition de 2021 pour un cadre juridique sur l’IA, considère que la réglementation est essentielle au développement de cette technologie.
SeekingAlpha signale qu’en vue d’accroître la transparence et de freiner la propagation de contenus non authentiques dans la publicité politique, le géant technologique Google a introduit une nouvelle politique qui obligera les annonceurs politiques à divulguer « de manière visible » le matériel généré par l’intelligence artificielle (IA) dans leurs publicités. La directive entrera en vigueur à la mi-novembre, un an avant les élections présidentielles et parlementaires américaines.
Cette décision survient une semaine avant la rencontre prévue entre les hauts dirigeants de la technologie américains, notamment le PDG d’Alphabet, Sundar Pichai, et le PDG de Meta, Mark Zuckerberg, et le chef de la majorité au Sénat, Chuck Schumer, à Washington pour discuter de la réglementation de l’IA.
Reuters ajoute qu’en juin dernier, Schumer avait évoqué son intention d’organiser un forum pour « établir de nouvelles bases pour la politique en matière d’IA ». Schumer aurait souligné la pertinence de convoquer « les meilleurs développeurs d’IA, cadres, scientifiques, défenseurs, dirigeants communautaires, travailleurs, experts en sécurité nationale – tous réunis dans une même pièce, accomplissant des années de travail en quelques mois ».
Reuters note que cette rencontre s’inscrit dans la foulée d’initiatives entamées par plusieurs gouvernements dans le but de réfléchir aux meilleurs moyens d’atténuer les risques associés à cette technologie émergente, qui jouit d’une popularité croissante auprès des consommateurs. Cela s’avérerait d’autant plus pertinent au vu des investissements massifs dont bénéficie cette innovation depuis le lancement de ChatGPT d’OpenAI.
La nécessité de réglementer l’IA s’exprime depuis quelques années déjà. En 2019, la Harvard Business Review soulignait la pertinence de s’attaquer aux craintes que soulevait dans la population l’intégration croissante de l’intelligence artificielle dans les produits commerciaux, les services et les processus, notamment ceux de type décisionnel. Plus précisément, cette évolution technologique a réanimé le débat entourant la manière dont les données des gens sont utilisées par les logiciels, en particulier par des algorithmes complexes et évolutifs.
Dans ce contexte, la Harvard Business Review souligne la proactivité de l’Union européenne, qui, dans son livre blanc Sur l’intelligence artificielle – Une approche européenne de l’excellence et de la confiance de 2020 et sa proposition de 2021 pour un cadre juridique sur l’IA, considère que la réglementation est essentielle au développement de cette technologie.