Jul 10, 2023
Les enjeux juridiques posés par l’IA générative
4 questions à poser avant de remplacer le travail humain par l'IA Des idées de leadership pour innover dans un contexte de changement Pourquoi apprendre à dire non est la leçon la plus importante pour ce fondateur Crédit : Rob Dobi Ideas
4 questions à poser avant de remplacer le travail humain par l'IA
Perspectives de leadership pour innover dans un contexte de changement
Pourquoi apprendre à dire non est la leçon la plus importante pour ce fondateur
Crédit : Rob Dobi
Des idées faites pour compter
Intelligence artificielle
Par
Dylan Walsh
28 août 2023
L’intelligence artificielle générative soulève de nouvelles questions juridiques sur l’utilisation des données et la manière dont le contenu sera réglementé. Un associé juridique offre des conseils.
L'intelligence artificielle générative, notamment les grands modèles de langage tels que ChatGPT et les logiciels de génération d'images tels que Stable Diffusion, sont de nouveaux outils puissants pour les particuliers et les entreprises. Ils soulèvent également des questions profondes et nouvelles sur la manière dont les données sont utilisées dans les modèles d’IA et sur la manière dont la loi s’applique au résultat de ces modèles, comme un paragraphe de texte ou une image générée par ordinateur.
« Nous assistons à la naissance d'une nouvelle technologie vraiment géniale », a déclaré Regina Sam Penti, SB '02, MEng '03, associée en droit chez Ropes & Gray, spécialisée dans la technologie et la propriété intellectuelle. "C'est une période passionnante, mais c'est un peu un champ de mines juridique en ce moment."
Lors de la conférence EmTech Digital de cette année, parrainée par MIT Technology Review, Penti a discuté de ce que les utilisateurs et les entreprises devraient savoir sur les questions juridiques entourant l'IA générative, y compris plusieurs affaires judiciaires américaines en cours et comment les entreprises devraient penser à se protéger.
La plupart des procès concernant l’IA générative se concentrent sur l’utilisation des données, a déclaré Penti, « ce qui n’est pas surprenant, étant donné que ces systèmes consomment d’énormes quantités de données provenant des quatre coins du monde ».
Un procès intenté par plusieurs codeurs contre GitHub, Microsoft et OpenAI est centré sur GitHub Copilot, qui convertit les commandes écrites en anglais simple en code informatique dans des dizaines de langages de codage différents. Copilot a été formé et développé sur des milliards de lignes de code open source déjà écrites, ce qui soulève des questions d'attribution.
"Pour les personnes qui opèrent dans la communauté open source, il est assez facile de prendre un logiciel open source et de s'assurer de conserver l'attribution, ce qui est une condition nécessaire pour pouvoir utiliser le logiciel", a déclaré Penti. Cependant, un modèle d’IA comme celui qui sous-tend Copilot « ne se rend pas compte qu’il y a toutes ces exigences à respecter ». La poursuite en cours allègue que les sociétés ont, entre autres, violé les conditions de licence des logiciels.
Dans un autre cas, plusieurs artistes visuels ont intenté un recours collectif contre les sociétés qui ont créé les générateurs d'images Stable Diffusion, Midjourney et DreamUp, qui génèrent tous des images basées sur des invites textuelles des utilisateurs. L'affaire allègue que les outils d'IA violent les droits d'auteur en récupérant des images sur Internet pour entraîner les modèles d'IA. Dans un autre procès, Getty Images allègue que l'utilisation par Stable Diffusion de son logiciel pour former des modèles enfreint les droits d'auteur. Toutes les images générées par Stable Diffusion sont des œuvres dérivées, affirme la poursuite, et certaines de ces images contiennent même un vestige du filigrane Getty.
Il existe également « beaucoup trop de cas pour être comptés » centrés sur des problèmes de confidentialité, a déclaré Penti. Les modèles d'IA formés sur des données internes pourraient même violer les propres politiques de confidentialité des entreprises. Il existe également des scénarios plus spécialisés, comme le cas dans lequel un maire australien envisageait d'intenter une action en diffamation contre ChatGPT après avoir faussement affirmé qu'il avait passé du temps en prison.
Même s'il n'est pas clair dans quelle mesure les menaces juridiques affecteront le développement de l'IA générative, elles pourraient obliger les créateurs de systèmes d'IA à réfléchir plus attentivement aux ensembles de données sur lesquels ils entraînent leurs modèles. Il est plus probable que des problèmes juridiques pourraient ralentir l'adoption de la technologie à mesure que les entreprises évaluent les risques, a déclaré Penti.
Aux États-Unis, les deux principaux systèmes juridiques régissant le type d’œuvres générées par l’IA sont les droits d’auteur et les brevets. Ni l’un ni l’autre n’est facile à appliquer, a déclaré Penti.