3 étapes pour élaborer une politique d’entreprise en vue de faciliter l’adoption de l’IA générative au travail
Au vu de l'adoption accélérée de l'intelligence artificielle (IA) générative, en raison des gains perçus en matière de productivité et d'efficacité sur le lieu de travail, un article de CIODIVE avance la pertinence d'établir une politique d'utilisation de ChatGPT ou des autres outils similaires. L'objectif est d'éviter le risque de compromission de la sécurité et de la confidentialité des données. En effet, sans directives claires, les employés pourraient intégrer des informations sensibles de l'entreprise dans ce système ou réutiliser le contenu généré et le présenter comme le leur.
Bien qu'OpenAI propose une API ChatGPT afin que les données saisies dans le modèle ne soient pas utilisées à des fins de formation, celle-ci n'aurait pas été adoptée largement. Dans ce contexte, l'article de CIODIVE propose 3 étapes pour élaborer une politique d'entreprise en vue de faciliter l'adoption de l'IA générative au travail.
- Contacter les parties prenantes critiques – les directeurs des systèmes d'information (DSI) et les responsables techniques ainsi que les responsables d'unités d'affaires – pour évaluer les niveaux d'intérêt, les cas d'utilisation possibles et les risques. Cette démarche est l'étape préalable et obligatoire à la proposition d'une politique d'entreprise concernant l'IA générative. De plus, Gartner suggère la pertinence pour les DSI de rencontrer les équipes juridiques, de conformité, de l'informatique, de gestion des risques, de confidentialité, d'analyse des données, de sécurité et des secteurs d'activité pour s'assurer que les politiques représentent les besoins et les exigences de l'organisation.
Quoiqu'une entreprise pourrait décider d'interdire ChatGPT, cela peut s'avérer inutile à long terme, puisque de gros joueurs de l'informatique – comme Microsoft ou Google – intègrent de plus en plus ces modèles dans leurs logiciels. D'ailleurs, selon une enquête, plus des deux tiers des travailleurs utiliseraient des outils d'IA sans en informer d'abord leurs gestionnaires. - Les experts soulignent la pertinence pour les gestionnaires d'évaluer les cas d'utilisation en fonction de la tolérance au risque et d'objectifs établis au préalable. Bien que cette démarche puisse être conditionnée par la disponibilité des ressources, les entreprises doivent être capables de déterminer avec précision si le cas d'utilisation à l'étude s'aligne sur la proposition de valeur communiquée aux clients, si elle respecte la conformité réglementaire et légale, et si l'organisation est en mesure de prendre en charge les risques qu'elle implique.
- Quoique les entreprises puissent mettre en place une politique en interdisant simplement aux employés de reproduire du contenu généré par l'IA, il y aurait également aussi la possibilité de spécifier des cas d'utilisation. Par exemple, il serait possible d'autoriser l'IA générative à des fins de recherche, mais d'interdire la reproduction de ces extrants. Le principe est que cette technologie doit compléter la recherche, mais non la remplacer.
Au vu de l'adoption accélérée de l'intelligence artificielle (IA) générative, en raison des gains perçus en matière de productivité et d'efficacité sur le lieu de travail, un article de CIODIVE avance la pertinence d'établir une politique d'utilisation de ChatGPT ou des autres outils similaires. L'objectif est d'éviter le risque de compromission de la sécurité et de la confidentialité des données. En effet, sans directives claires, les employés pourraient intégrer des informations sensibles de l'entreprise dans ce système ou réutiliser le contenu généré et le présenter comme le leur.
Bien qu'OpenAI propose une API ChatGPT afin que les données saisies dans le modèle ne soient pas utilisées à des fins de formation, celle-ci n'aurait pas été adoptée largement. Dans ce contexte, l'article de CIODIVE propose 3 étapes pour élaborer une politique d'entreprise en vue de faciliter l'adoption de l'IA générative au travail.
- Contacter les parties prenantes critiques – les directeurs des systèmes d'information (DSI) et les responsables techniques ainsi que les responsables d'unités d'affaires – pour évaluer les niveaux d'intérêt, les cas d'utilisation possibles et les risques. Cette démarche est l'étape préalable et obligatoire à la proposition d'une politique d'entreprise concernant l'IA générative. De plus, Gartner suggère la pertinence pour les DSI de rencontrer les équipes juridiques, de conformité, de l'informatique, de gestion des risques, de confidentialité, d'analyse des données, de sécurité et des secteurs d'activité pour s'assurer que les politiques représentent les besoins et les exigences de l'organisation.
Quoiqu'une entreprise pourrait décider d'interdire ChatGPT, cela peut s'avérer inutile à long terme, puisque de gros joueurs de l'informatique – comme Microsoft ou Google – intègrent de plus en plus ces modèles dans leurs logiciels. D'ailleurs, selon une enquête, plus des deux tiers des travailleurs utiliseraient des outils d'IA sans en informer d'abord leurs gestionnaires. - Les experts soulignent la pertinence pour les gestionnaires d'évaluer les cas d'utilisation en fonction de la tolérance au risque et d'objectifs établis au préalable. Bien que cette démarche puisse être conditionnée par la disponibilité des ressources, les entreprises doivent être capables de déterminer avec précision si le cas d'utilisation à l'étude s'aligne sur la proposition de valeur communiquée aux clients, si elle respecte la conformité réglementaire et légale, et si l'organisation est en mesure de prendre en charge les risques qu'elle implique.
- Quoique les entreprises puissent mettre en place une politique en interdisant simplement aux employés de reproduire du contenu généré par l'IA, il y aurait également aussi la possibilité de spécifier des cas d'utilisation. Par exemple, il serait possible d'autoriser l'IA générative à des fins de recherche, mais d'interdire la reproduction de ces extrants. Le principe est que cette technologie doit compléter la recherche, mais non la remplacer.