Технологія пам’яті в ChatGPT від OpenAI викликає стосунки до конфіденційності

OpenAI впровадила нову функцію пам’яті в свій популярний чат-бот, ChatGPT. Цей штучний інтелект (AI) тепер зможе зберігати персональні дані про користувачів, що дозволить надавати більш персоналізовані та корисні відповіді. Хоча цей прогрес у технології виглядає перспективно, він також викликає серйозні турботи стосовно конфіденційності та можливого посилення «екхо-камер».

Функція пам’яті в ChatGPT дозволяє боту зберігати інформацію про користувачів, таку як факти про їхню родину, здоров’я або уподобання у стилі розмови. Цим чат-бот може надавати відповіді, що ґрунтуються на відповідному контексті, а не починаючи все заново. Однак збір персональних даних за замовчуванням завжди був контроверсійною практикою, оскільки він може призвести до серйозних проблем з конфіденційністю.

Подібно до підходу Facebook, функція пам’яті від OpenAI спрямована на краще залучення користувачів та збільшення часу, який вони проводять на платформі. Наразі користувачі ChatGPT в середньому витрачають сім з половиною хвилин на візит, що є високим рівнем залученості. Зберігаючи більше особистої інформації, OpenAI сподівається перевершити показники утримання користувачів своїх конкурентів, включаючи Microsoft, Anthropic та Perplexity.

Проте, непередбачені наслідки цієї функції пам’яті є насторожливими. OpenAI стверджує, що користувачі контролюють пам’ять ChatGPT, але також визнає, що сам бот може збирати деталі. Це означає, що чат-бот має можливість пам’ятати певні факти, які вважає важливими, що потенційно може призвести до підсилення упередженостей користувачів та фільтрових бульбашок.

Крім того, можливість інших AI компаній йти по шляху OpenAI у зборі персональних даних створює додаткові проблеми з конфіденційністю. Хоча OpenAI стверджує, що використовує дані користувачів лише для навчання своїх моделей, інші виробники чат-ботів можуть не надавати на конфіденційність такої уваги. Останнє опитування виявило, що багато чат-ботів діляться особистими даними, включаючи інтимні деталі, з рекламодавцями та третіми сторонами.

Щоб пом’якшити ці ризики, OpenAI може робити активні кроки. Наприклад, ChatGPT може запропонувати різноманітні перспективи з питань політики та соціальних питань, викликаючи наявні упередження користувачів. Інтеграція запитань для критичного мислення може заохочувати користувачів досліджувати різні точки зору. Крім того, OpenAI може забезпечувати прозорість, повідомляючи користувачів про те, коли надається налаштована інформація, сприяючи відповідальному використанню технології.

У висновку, хоча функція пам’яті в ChatGPT від OpenAI може покращити досвід користувача, існують обґрунтовані турботи щодо конфіденційності та посилення «екхо-камер». Щоб уникнути негативних побічних ефектів, які відчули платформи, такі як Facebook, OpenAI повинна пріоритетизувати конфіденційність користувачів та здійснювати заходи для сприяння відкритості думок та критичного мислення в системі штучного інтелекту.

The source of the article is from the blog procarsrl.com.ar

Privacy policy
Contact