Глобальне обговорення практик збору даних ChatGPT набирає обертів.

Австрійська асоціація оголосила про подання позову проти гіганта штучного інтелекту OpenAI за його платформу ChatGPT через побоювання порушення конфіденційності та поширення недостовірної інформації. Виникли ствердження про непередбачувану поведінку генеративного штучного інтелекту та нездатність виправляти свої помилки. Організація зізнана як Noyb—що означає “Нічого особистого”—піднесла звинувачення після того, як ЧатGPT надав неправильну дату народження засновнику. Незважаючи на такі випадки, організація стверджує, що OpenAI не вирівняв свою роботу зі Загальним регламентом про захист даних (GDPR), який передбачає точну та справедливу обробку даних.

Останній скарги нагадують про схожі недоліки в Франції, де були подані численні позови через порушення GDPR, зокрема зазначаючи недоліки в персональних даних, наданих ChatGPT. Поки скарги накопичуються, включаючи важливі випадки, зазначені французьким депутатом Еріком Боторелем та правозахисником Давидом Лібьо, наглядові органи, такі як Національна комісія з питань інформатики та свободи (CNIL) Франції, розпочали розслідування щонайменше п’яти скарг.

Міжнародні Турботи та Потенційні Рішення виходять за межі Європи, ініціативу відкрили в Канаді щодо незаконної обробки персональних даних. OpenAI, відповідаючи на цю міжнародну критику, визнає труднощі в корегуванні обманливої інформації, поширеної його моделями штучного інтелекту, що викликає широкі дискусії щодо покращення надійності штучного інтелекту.

Для вирішення проблем експерти ЄС обговорюють стратегії для вдосконалення бази знань штучного інтелекту, включаючи впровадження алгоритмів для ігнорування неправдивої інформації без перетворення всього набору даних. Шукаються практичні рішення, щоб узгодити з нормами захисту персональних даних та уникнути великого, коштовногоя інтенсивного перепідготовки технологій штучного інтелекту.

Конфлікти авторських прав додають проблем OpenAI. OpenAI також стикається з окремими позовами за побоюванням порушення авторських прав. Автори, такі як Джордж Р. Р. Мартін та медіахолдинги, наприклад, The New York Times, подали позови проти компанії за незаконне використання авторських матеріалів для навчання штучного інтелекту. Відповідь OpenAI акцентує їх намір співпрацювати з творцями змісту на благо для обох сторін, серед постійних судових битв, які передбачають значні фінансові наслідки.

Відсутні факти, які не згадані у статті:

– ChatGPT базується на технології GPT-3 від OpenAI, яка навчалася на різноманітному тексті з Інтернету. Однак важливо зазначити, що набір даних, який використовувався для тренування GPT-3, містить текст з широкого спектру часу та може включати персональні дані, які були загальнодоступні на момент збору.
– GDPR вимагає, щоб суб’єкти, які діють в ЄС або обробляють дані громадян ЄС, дотримувалися строгих правил щодо конфіденційності даних, включаючи право на виправлення, ясну згоду на обробку даних та право на забуття.
– У OpenAI є політика використання даних та ChatGPT, але конкрети, як вона дотримується різних глобальних правил приватності, таких як GDPR, піддається перевірці.

Ключові питання та відповіді:

– П: Що таке Загальний регламент про захист персональних даних (GDPR)?
– В: GDPR – це регуляція в законодавстві ЄС щодо захисту даних та приватності в Європейському Союзі та Європейському економічному просторі. Вона також регламентує передачу персональних даних за межі країн ЄС та ЄПР.

– П: Як штучні інтелектуальні технології можуть відповідати вимогам GDPR?
– В: Штучні інтелектуальні технології можуть відповідати вимогам GDPR, забезпечивши законну, прозору та безпечну обробку персональних даних. Повинні бути встановлені процедури для виправлення неточностей та можливості користувачів відразу подати свої права за GDPR.

– П: Чому штучним інтелектом, наприклад, ChatGPT важко завжди надавати точну інформацію?
– В: Моделі штучного інтелекту, наприклад, ChatGPT, генерують відповіді на основі патернів у даних, на яких вони навчались, а не у фактичних базах даних. Тому неточності можуть виникати через помилки у вихідних даних або неправильне тлумачення контексту.

Ключові виклики або проблеми:

– Забезпечення того, щоб створені штучним інтелектом матеріали поважали права на конфіденційність та не поширювали дезінформацію, є складною задачею, особливо з урахуванням великої кількості даних, на яких навчаються системи штучного інтелекту.
– Забезпечення балансу між свободою інформації та захистом авторських прав у контексті штучного інтелекту, який вчиться з загальнодоступного контенту, є складною юридичною та етичною проблемою.
– Впровадження ефективних регуляторних заходів, які забезпечують відповідність без того, щоб пригнічувати розвиток у швидкозмінній галузі штучного інтелекту, становить складну проблему для законодавців.

Переваги:

– ЧатGPT та подібні технології штучного інтелекту можуть забезпечити швидкий доступ до інформації та автоматизувати завдання, що призводить до збільшення продуктивності та інновацій.

Недоліки:

– Існує ризик поширення некоректної інформації, порушень конфіденційності та авторських прав, що може призвести до юридичних проблем і втрати довіри до технологій штучного інтелекту.

Рекомендовані пов’язані посилання:

– Дізнайтеся більше про практики та політику OpenAI за посиланням OpenAI.
– Для інформації про GDPR та захист даних відвідайте офіційний сайт Європейського Союзу за посиланням European Union.
– Якщо вас цікавлять органи регуляції у Франції, ви можете відвідати офіційний веб-сайт Національної комісії з питань інформатики та свободи (CNIL) за посиланням CNIL.

The source of the article is from the blog lanoticiadigital.com.ar

Privacy policy
Contact