Nouvelle législation proposée pour répondre aux préoccupations liées à l’utilisation de l’IA dans le contenu

Un groupe de dirigeants des médias a récemment demandé aux législateurs de promulguer une nouvelle législation qui obligerait les développeurs d’intelligence artificielle à indemniser les éditeurs pour l’utilisation de leur contenu dans la formation de leurs modèles informatiques. Cet appel fait suite à l’utilisation croissante de chatbots basés sur l’IA, tels que le ChatGPT d’OpenAI, qui a suscité des inquiétudes parmi les organisations médiatiques et entraîné des suppressions d’emplois importantes dans l’industrie.

Lors d’une audition devant le Sénat américain, Roger Lynch, PDG de Condé Nast, a souligné que les modèles d’IA actuels sont développés en utilisant des « biens volés », car les chatbots récupèrent et affichent des articles de presse provenant d’éditeurs sans autorisation ni compensation. Il a expliqué en outre que les organisations de presse ont rarement le contrôle sur la manière dont leur contenu est utilisé pour former l’IA ou est généré par les modèles.

Bien qu’un récent procès intenté par le New York Times ait mis en lumière le désir des éditeurs de presse d’empêcher les modèles d’IA de récupérer leurs articles sans compensation, cette problématique dépasse le secteur des médias d’information. En 2023, plusieurs procès ont été intentés contre des entreprises d’IA, y compris des auteurs de renom tels que Sarah Silverman, Margaret Atwood et Dan Brown, mettant en évidence la préoccupation plus large liée à l’utilisation du contenu.

Pour remédier au problème du pillage de contenu, Lynch a proposé que les entreprises d’IA utilisent du contenu sous licence et compensent les éditeurs pour l’utilisation de leur contenu dans la formation et en sortie. Selon lui, cette approche garantirait un écosystème durable et concurrentiel où du contenu de haute qualité continue d’être produit.

Danielle Coffey, présidente-directrice générale de la News Media Alliance, a également souligné la nécessité de protéger le contenu des éditeurs. Elle a noté que les modèles d’IA avaient introduit des inexactitudes et produit des informations trompeuses en récupérant du contenu provenant de sources peu fiables. Cela risque non seulement de désinformer le public, mais aussi de nuire à la réputation des éditeurs.

Curtis LeGeyt, président-directeur général de la National Association of Broadcasters, a exprimé des préoccupations concernant l’utilisation de l’IA pour créer des deepfakes et propager de la désinformation, ce qui sape la confiance du public envers les personnalités locales.

Bien qu’il soit essentiel de mettre en place des garanties légales pour protéger les éditeurs de presse contre une utilisation abusive de leur contenu par l’IA, cela pourrait également être avantageux pour les développeurs à long terme. Coffey a expliqué que les modèles et produits d’IA génératifs ne pouvaient pas être durables s’ils compromettaient la qualité du contenu sur lequel ils reposent.

En conclusion, la législation proposée vise à répondre aux préoccupations liées à l’utilisation de l’IA pour récupérer et générer du contenu sans compensation ni autorisation appropriée. Elle cherche à établir un écosystème équilibré et durable où le développement de l’IA et la création de contenu de haute qualité peuvent coexister.

The source of the article is from the blog portaldoriograndense.com

Privacy policy
Contact