Неприбуткова організація висуває претензії проти OpenAI щодо збереження конфіденційності даних в ЄС

Австрійська неприбуткова організація під керівництвом захисника приватності Макса Шремса, відомого завдяки своїй кампанії “None of your business”, розпочала судові дії проти OpenAI за якими помітні порушення GDPR, що стосуються ChatGPT, мовного моделю AI, відомого своїми розмовними здібностями. Організація стверджує, що ChatGPT надає вигадані відповіді про людей у випадках, коли не має точної інформації, що призводить до поширення недостовірних даних.

Noyb офіційно звернулося до австрійського органу захисту даних, вимагаючи можливих штрафів та відшкодування за невирішення OpenAI цього питання. Ця скарга спрямована на основну функціональність мовних моделей AI, таких як ChatGPT, які іноді можуть передбачати невірну інформацію у намаганні завершити запитання.

Точні персональні дані є серйозною вимогою згідно з законами ЄС з 1995 року, і GDPR підтверджує це. Однак відповідь OpenAI на запит на доступ та видалення даних щодо вигаданої дати народження була визнана незадовільною. Згідно з GDPR, обробники даних повинні надавати особам доступ до їх персональних даних і забезпечувати можливість видалення цих даних, з певними винятками. Однак було повідомлено, що OpenAI надавало лише інформацію про обліковий запис користувача, а не деталі про обробку даних.

Крім того, твердження OpenAI, що вони можуть лише заборонити надавати дату народження, але не виправити невірну, призвело до роздратування. Компанія посилається на те, що обмеження відповідей може вплинути на права громадян на інформацію, особливо коли мова йде про громадських людей.

Скарга також стосується корпоративної структури OpenAI, і Noyb ставить під сумнів автономію європейських операцій OpenAI та подає скаргу проти американського суб’єкта, відповідального за прийняття рішень на базі даних.

Цей інцидент внесе свій внесок у більш широку європейську дискусію про етику та конфіденційність штучного інтелекту. Хоча ChatGPT завоювала своїх користувачів вражаючими розмовними здібностями з моменту запуску у 2022 році, вона також викликала тривогу стосовно ризиків штучного інтелекту. Країни, такі як Італія, прийняли заходи, наприклад тимчасові заборони, і французький орган з захисту даних розглядає численні скарги, що свідчить про загострене розглядання застосування штучного інтелекту в ЄС. Незважаючи на ці події, існує відтінок скептицизму по відношенню до ефективності ухвалених регуляторних заходів. OpenAI не надала коментарів після звернення з проханням про заяву з цього питання.

Юридичні дії, ініційовані австрійською неприбутковою організацією проти OpenAI, поставляють кілька важливих питань:

1. Як регулюються відповіді, згенеровані штучним інтелектом, які стосуються інформації про осіб, згідно з GDPR?
– Згідно з GDPR, персональні дані мають бути точними і, в разі необхідності, підтримуватися в актуальному стані. Потенційний проблема OpenAI зі створенням невірних даних щодо осіб викликає виклики щодо цієї вимоги.

2. Які наслідки для конфіденційності даних, коли інформація, згенерована штучним інтелектом, невірна?
– Невірна інформація, згенерована штучним інтелектом, може людити та потенційно завдати шкоди репутації або конфіденційності осіб.

3. Яка відповідальність OpenAI у сфері обробки даних та забезпечення відповідності з GDPR?
– OpenAI, як обробник даних, має зобов’язання запрощати громадянам ЄС доступ до їх персональних даних та дозволяти їх коригування або видалення за запитом відповідно до правил GDPR.

Ключові виклики або суперечки, пов’язані з цією темою, часто обертаються навколо балансу між технологічними інноваціями та правами на конфіденційність. Наприклад:

– Складність програмування штучного інтелекту для дотримання строгих стандартів конфіденційності, встановлених GDPR.
– Забезпечення того, що відповіді штучного інтелекту є точними і не спотворюють інформацію, не посягаючи на ефективність функціонування штучного інтелекту.
– Визначення обов’язків і правових обов’язків розробників та операторів штучного інтелекту в різних міжнародних юрисдикціях.

Переваги та недоліки можна бачити в застосуванні технологій штучного інтелекту, таких як ChatGPT:

Переваги:
– Штучний інтелект може обробляти та аналізувати великі обсяги даних швидше, ніж люди, надаючи цінні інсайти.
– Штучний інтелект може сприяти автоматизації багатьох завдань, пов’язаних з даними, що призводить до ефективності.
– Покращене користувацьке досвід через розмовні взаємодії з моделями штучного інтелекту, такими як ChatGPT.

Недоліки:
– Штучний інтелект може ненавмисно поширювати упередженість або генерувати невірну інформацію, що може мати негативні наслідки.
– Складність відповідності різним міжнародним законодавчим актам у сфері конфіденційності даних, таким як GDPR, може бути технічно та юридично складною.
– Існує ризик зниження довіри споживачів до технологій штучного інтелекту, якщо вони часто пов’язуються з проблемами конфіденційності або невірностями.

Беручи до уваги більший контекст, ці юридичні дії свідчать про проведення тривалої та еволюційної дискусії про те, як штучний інтелект може бути згоджений з суворими законами про захист даних, такими як GDPR. Це ймовірно буде залишатися областю правового та етичного розгляду.

Для отримання додаткової інформації про Європейський Загальний Регламент про Захист Даних відвідайте веб-сайт Європейської Комісії за посиланням Європейська Комісія.

Для подальшого розуміння штучного інтелекту та його етичних наслідків у Європі, Європейський Альянс зі штучного інтелекту є ще одним відповідним джерелом за посиланням Цифрова стратегія.

Важливо пам’ятати, що ці URL-адреси було перевірено, проте контент на цих сайтах постійно змінюється. Завжди перевіряйте з найактуальнішою інформацією приймаючи правові або пов’язані з відповідністю рішення.

The source of the article is from the blog exofeed.nl

Privacy policy
Contact