У відкритому експерименті вчені з Массачусетського технологічного інституту (MIT) штучний інтелект-приведений чат-бот продемонстрував свою здатність зменшити віру в конспіраційні теорії на близько 20 відсотків. Дослідження, про яке повідомило видання New Scientist, передбачало, що штучний інтелект взаємодіє в розмовах з особами, які раніше вважали себе прихильниками різних конспіраційних теорій.
Учасники дослідження спочатку висловлювали свою віру у обрану конспіраційну теорію та оцінювали ймовірність її істинності. При цьому взаємодія зі структурованим діалогом з штучним інтелектом чат-ботом, у якому кожна сторона здійснила три внески в дискусію, започатковувалася. Після цього люди переоцінювали свою віру в конспіраційну теорію, яку вони обговорювали.
Запаморочливо, віра в конкретні конспіраційні теорії, які обговорювались, в середньому знизилася на 20 відсотків після розмови з штучним інтелектом. Більше того, дослідження відзначило загальне зниження прихильності до інших конспіраційних теорій серед учасників — зміна, яка, здавалося, дотримувалася протягом принаймні двох місяців, що вказує на потенційно тривалу зміну поглядів.
Успіх штучного інтелекту-чат-бота приписується його прямому та фактологічному підходу. Томас Костелло з MIT вказує на те, що в той час як минулі спроби протистояти конспіраційним теоріям часто зазнавали невдачі через узагальнені аргументи та поверхневе фактичне контактування, чат-бот ефективно використовував аргументи, підтверджені доказами, у 83 відсотках діалогів, щоб висловлювати альтернативні погляди.
Ці висновки ілюструють потенціал як для штучного інтелекту, так і для людей перейти до більш ефективного підходу при взаємодії з прихильниками конспіраційних теорій, запроваджуючи фактологічний та поважний спосіб спілкування. Оскільки штучний інтелект продовжує розвиватися, такі інструменти можуть стати критичними для просування раціонального діалогу та виправлення місцевої інформації на глобальному рівні.
Поточні тенденції ринку:
Ринок штучного інтелекту-чат-ботів швидко розширюється. Більше підприємств та організацій впроваджують чат-ботів у свої служби підтримки клієнтів та операцій, щоб покращити ефективність та досвід користувачів. Штучні інтелект-чат-боти стають все більш складними в здатності розбиратися та інтерпретувати природну мову, що робить їх більш ефективними в різноманітних застосуваннях, включаючи боротьбу з місцевою інформацією та конспіраційними теоріями.
Прогнози:
Ринок штучного інтелекту-чат-ботів очікується продовжувати зростати з передбаченим річним темпом зростання складно говорити між 2021 та 2026 роками, приблизно 24 відсотки. З розвитком технологій машинного навчання та обробки природної мови чат-боти передбачаються стати більш вдосконаленими у мисленні та взаємодії з користувачами у складних розмовах, включаючи ті, пов’язані із чутливими темами, такими як конспіраційні теорії.
Ключові виклики та контроверзії:
Боротьба з конспіраційними теоріями за допомогою штучного інтелекту-чат-ботів створює виклики. По-перше, суб’єктивність розмов та відтінки систем віру можуть зробити важкою ідентифікацію та виправлення місцевої інформації. Також існує ризик того, що боти можуть посилити невірні переконання, якщо не будуть належно програмовані чи навчені. Залежність від штучного інтелекту в таких контекстах може породити етичні питання про вплив на свободу слова, конфіденційність та можливість маніпулювання, що призводять до спорів щодо їх впровадження та управління.
Важливі питання:
1. Як чат-боти штучного інтелекту точно розпізнають та розрізняють між конспіраційними теоріями та спірними, але законними дисидентами?
2. Чи можуть чат-боти штучного інтелекту зберігати нейтральну та об’єктивну позицію, враховуючи, що вони працюють на основі наборів даних, які можуть містити вбудовані упередження?
3. Які механізми існують для запобігання зловживанням чат-ботів штучного інтелекту зловмисними цілями, такими як поширення дезінформації?
4. Як забезпечується захист особистої конфіденційності користувачів під час взаємодій з чат-ботами штучного інтелекту, що обговорюють чутливі теми?
Переваги:
– Чат-боти штучного інтелекту можуть спілкуватися з людьми великими партіями та потенційно звертатися до більшої кількості осіб, ніж інтервенції, керовані людьми.
– Вони надають послідовний та фактологічний підхід до спростування конспіраційних теорій.
– Чат-боти штучного інтелекту доступні цілодобово та можуть надавати негайне спілкування з користувачами.
Недоліки:
– Чат-боти можуть бракувати співчуття та розуміння, необхідні для чутливих діалогів, що може призвести до можливого відведення користувачів.
– Їх можна використовувати для поширення дезінформації, якщо їх не належно контролювати.
– Ефективність чат-ботів штучного інтелекту в зміні давно утримуваних переконань ще повністю розуміти.
Для дальшого читання можна звернутися до основних веб-сайтів ключових інституцій, що займаються дослідженнями штучного інтелекту та боротьбою з місцевою інформацією:
– Массачусетський технологічний інститут
– New Scientist
Зауважте, що поточні тенденції, прогнози, виклики та етичні розгляди щодо використання чат-ботів штучного інтелекту для боротьби з конспіраційними теоріями піддаються постійним дослідженням та дебатам у цій галузі. Для розробників, законодавців та суспільства в цілому важливо уважно відслідковувати та співпрацювати з цими досягненнями, щоб забезпечити їх відповідальну та ефективну розробку та використання.