Organisme à but non lucratif défie OpenAI sur la protection des données dans l’UE

Une organisation autrichienne à but non lucratif dirigée par l’activiste de la vie privée Max Schrems, connue pour sa campagne « None of your business », a engagé des poursuites judiciaires contre OpenAI pour des violations présumées du RGPD concernant ChatGPT, le modèle de langage IA réputé pour ses capacités conversationnelles. L’organisation affirme que ChatGPT fournit des réponses falsifiées sur les personnes lorsqu’il manque d’informations précises, ce qui entraîne la diffusion de données incorrectes.

Noyb a officiellement demandé une enquête par l’autorité autrichienne de protection des données, recherchant des amendes potentielles et des mesures correctives pour le défaut d’OpenAI de traiter le problème. Cette plainte vise la fonctionnalité centrale des modèles de langage IA comme ChatGPT, qui peuvent parfois prédire des informations incorrectes en tentant de compléter des prompts.

Des données personnelles précises sont une exigence sérieuse en vertu des lois de l’UE depuis 1995, et le RGPD renforce cela. Cependant, la réponse d’OpenAI à une demande d’accès et de suppression de données concernant une date de naissance falsifiée a été jugée insatisfaisante. Le RGPD exige que les responsables du traitement des données fournissent aux individus l’accès à leurs données personnelles et permettent la suppression de ces données, avec certaines exceptions. Cependant, il a été signalé qu’OpenAI n’a fourni que des informations sur le compte utilisateur, pas sur le processus de données.

De plus, la position d’OpenAI selon laquelle ils ne pouvaient empêcher de fournir une date de naissance mais pas corriger une fausse date a provoqué de la frustration. La société a invoqué des inquiétudes selon lesquelles restreindre les réponses pourrait affecter les droits des citoyens à l’information, en particulier lorsqu’il s’agit de personnalités publiques.

La plainte aborde également la structure d’entreprise d’OpenAI, Noyb remettant en question l’autonomie des opérations européennes d’OpenAI et déposant la plainte contre l’entité américaine responsable des décisions basées sur les données.

L’incident alimente un débat plus large en Europe sur l’éthique et la vie privée de l’IA. Alors que ChatGPT a séduit les utilisateurs avec ses impressionnantes capacités conversationnelles depuis son lancement en 2022, il a également soulevé des préoccupations quant aux risques liés à l’IA. Des pays comme l’Italie ont pris des mesures telles que des interdictions temporaires, et l’autorité de protection des données de la France examine de nombreuses plaintes, signalant un examen renforcé des applications d’IA dans l’UE. Malgré ces événements, il y a un air de scepticisme quant à l’efficacité des actions réglementaires entreprises. OpenAI n’a pas commenté lorsqu’il a été sollicité pour une déclaration sur cette affaire.

L’action en justice engagée par l’organisation autrichienne à but non lucratif contre OpenAI soulève plusieurs questions importantes :

1. Comment les réponses générées par l’IA impliquant les informations individuelles sont-elles réglementées en vertu du RGPD ?
– Le RGPD exige que les données personnelles soient exactes et, si nécessaire, tenues à jour. Le problème potentiel d’OpenAI à créer des données inexactes concernant les individus remet en question cette exigence.

2. Quelles sont les implications pour la vie privée des données lorsque les informations générées par l’IA sont incorrectes ?
– Des informations inexactes générées par l’IA peuvent induire en erreur et potentiellement porter atteinte à la réputation ou à la vie privée des individus.

3. Quelle est la responsabilité d’OpenAI en termes de traitement des données et de garantie de conformité au RGPD?
– OpenAI, en tant que processeur de données, est tenu de faciliter l’accès aux données personnelles des citoyens de l’UE et de permettre leur rectification ou leur suppression sur demande, conformément aux réglementations du RGPD.

Les défis clés ou les controverses associés à ce sujet tournent souvent autour de l’équilibre entre l’innovation technologique et les droits à la vie privée. Par exemple :

– La difficulté de programmer l’IA pour respecter les normes strictes de confidentialité définies par le RGPD.
– S’assurer que les réponses de l’IA sont précises et non trompeuses, sans porter atteinte à la capacité de l’IA de fonctionner efficacement.
– Délimiter les responsabilités et obligations légales des développeurs et opérateurs d’IA dans différentes juridictions internationales.

Les avantages et inconvénients sont visibles dans l’utilisation des technologies IA comme ChatGPT :

Avantages :
– L’IA peut traiter et analyser des quantités de données plus importantes et plus rapidement que les humains, fournissant ainsi des informations précieuses.
– L’IA peut faciliter l’automatisation de nombreuses tâches axées sur les données, générant des gains d’efficacité.
– Une meilleure expérience utilisateur grâce aux interactions conversationnelles avec des modèles IA comme ChatGPT.

Inconvénients :
– L’IA peut involontairement perpétuer des biais ou générer des informations incorrectes, entraînant des conséquences négatives.
– Le défi de respecter les diverses réglementations internationales sur la protection des données, comme le RGPD, peut être techniquement et légalement complexe.
– Il y a un risque de diminution de la confiance des consommateurs dans les technologies IA s’ils sont fréquemment associés à des préoccupations en matière de vie privée ou d’inexactitudes.

Dans le contexte plus large, ces actions en justice indiquent un dialogue en cours et en évolution sur la manière dont l’IA peut être conciliée avec des lois strictes de protection des données comme le RGPD. Il s’agira probablement d’un domaine d’examen légal et éthique continu.

Pour plus d’informations sur le Règlement Général sur la Protection des Données européen, vous pouvez visiter le site Web de la Commission européenne sur Commission européenne.

Pour une meilleure compréhension de l’IA et de ses implications éthiques en Europe, l’Alliance européenne pour l’IA est une autre source pertinente disponible sur Stratégie numérique.

Il est essentiel de se rappeler que bien que ces URL aient été validées, le contenu de ces sites évolue constamment. Vérifiez toujours les informations les plus récentes lors de prises de décisions liées à la légalité ou à la conformité.

The source of the article is from the blog jomfruland.net

Privacy policy
Contact