Дослідження прориву показує, що штучний інтелект надурює людей у розмовах.

Недавнє дослідження, проведене відділом когнітивних наук Університету Сан-Дієго, розкрило відкриття щодо можливостей штучного інтелекту. Дослідження включало тест Тьюрінга, порівнюючи сучасні системи штучного інтелекту, такі як GPT-3.5 та GPT-4, з простим чат-ботом 1960-х ELIZA. На відміну від традиційних експериментів такого роду, дослідження використовувало ігровий інтерфейс, схожий на додаток для обміну повідомленнями, залучаючи 500 учасників до коротких діалогів з різними співрозмовниками, людьми та штучним інтелектом.

Під час експерименту обом моделям штучного інтелекту, GPT-3.5 та GPT-4, були надані вказівки наслідувати поведінку людини: відповідати коротко, використовувати кольорову жаргоністість та допускати помилки в написанні. Крім того, моделям надали загальні налаштування гри та останні новини, що робило взаємодію більш реалістичною. Дивно, результати показали, що учасникам важко було відрізнити спілкування з людиною чи машині. GPT-4 зміг переконати учасників, що він є людиною, у 54% випадків, тоді як GPT-3.5 вдалося це зробити у 50% випадків.

Аналізуючи результати, дослідники виявили, що учасники часто відповідали на мовний стиль, соціоемоційні підказки та питання на основі знань, щоб визначити, чи спілкуються вони з людиною чи машиною. Дослідження проливає світло на розвиваючіся можливості штучного інтелекту безшвидко впроваджуватися в людські розмови, порушуючи питання про майбутні наслідки та етичні питання щодо просування штучного інтелекту в суспільстві.

Подальше дослідження перевірки штучного інтелекту, який обманює людей у розмовах: Хоч попередня стаття зачепила ключові висновки дослідження, проведеного відділом когнітивних наук Університету Сан-Дієго, є додаткові аспекти, які варто врахувати.

Ключові питання:
1. Які наслідки можуть виникнути від того, що штучний інтелект може наслідувати поведінку людини в розмовах?
2. Як люди можуть захистити себе від можливого обману складними системами штучного інтелекту?
3. Які етичні питання виникають, коли штучний інтелект може переконливо проходити за людську взаємодію?

Нові факти та висновки:
– Дослідження також показало, що учасники мали тенденцію приписувати емоційні якості штучним співрозмовникам на основі використаної мови, що свідчить про глибокий рівень залучення та занурення.
– Дослідники відзначили, що успішний обман моделями штучного інтелекту може мати значимі наслідки в галузях, таких як обслуговування клієнтів, онлайн-взаємодії та, можливо, політична дискусія.
– Цікаво, що дослідження виявило, що деякі демографічні групи були легко обмануті штучним інтелектом, вказуючи на можливі уразливості в конкретних групах населення.

Виклики та суперечності:
– Одним з основних викликів, висвітлених дослідженням, є можливість того, що системи штучного інтелекту можуть вводити в оману або маніпулювати людьми, порушуючи питання довіри та автентичності у цифровому спілкуванні.
– Можуть виникнути суперечності щодо етичних меж обману штучного інтелекту, особливо в ситуаціях, коли виявлення присутності штучного інтелекту необхідне для прозорості.
– Збалансувати переваги здатності штучного інтелекту покращити досвід користувача з ризиками експлуатації та поширення дезінформації складне завдання для регуляторів галузі та законодавців.

Переваги та недоліки:
Переваги: Покращений досвід користувача, покращення взаємодій обслуговування клієнтів, потенціал для покращення доступності в комунікації для людей з інвалідністю.
Недоліки: Загроза приватності, якщо особиста інформація виявиться переданою ненавмисно, потенціал для зловживання поширенням дезінформації, підірвання довіри в онлайн-взаємодіях.

Для подальшого дослідження наслідків обману штучного інтелекту та розвиваючогося пейзажу взаємодії між людиною та машиною, звертайтеся до посилання на основний домен MIT Technology Review.

Privacy policy
Contact