Рост использования AI-чатботов в обслуживании клиентов вызвал обсуждения о возможной замене работы агентов по обслуживанию. Однако эксперты отрасли сходятся во мнении, что на текущем этапе AI еще не готова полностью заменить людей в клиентоориентированных ролях.
Недавние инциденты, например случай, когда программист манипулировал чатботом, чтобы продать ему машину всего за доллар, подчеркивают ограничения и проблемы генеративного AI. Одной из основных проблем является явление устойчивых галлюцинаций, когда модели AI производят неверные или бессмысленные ответы. Хотя модели, такие как GPT-4, настраиваются и обучаются с учетом корпоративных данных, остается риск предоставления вводящей в заблуждение информации.
Несмотря на эти вызовы, генеративное AI может значительно увеличить эффективность и опыт клиентов в обслуживании клиентов. По мнению Санджива Менона, соучредителя и руководителя продукта и технологий в E42.ai, тщательное проектирование и настройка с использованием конкретных данных могут повысить производительность чатботов AI. Тем не менее, важно полностью понимать возможности и ограничения этих моделей.
Хотя многие предприятия внедрили AI-чатботов в свои платформы, это не исключает необходимости человеческого вмешательства. Человеческие агенты играют важную роль в обеспечении позитивного и безопасного взаимодействия в обслуживании клиентов. Проверки на токсичность запросов, обновление данных и надзор во время сложных или чувствительных ситуаций необходимы для поддержания точности и обеспечения надежного опыта.
Гаурав Сингх, основатель и генеральный директор Verloop.io, предлагает укреплять человеческих агентов в качестве стражей порядка для обеспечения контроля качества. В то время как большинство запросов могут эффективно обрабатываться AI-чатботами, неопределенные ситуации требуют переноса на человеческих агентов для верификации и редактирования.
Модели малых языковых моделей (Small Language Models, SLMs) предлагают более подходящее решение для отраслевых потребностей в обслуживании клиентов. Эти модели могут быть настроены или обучены специально для конкретной области, что позволяет лучше понимать отраслевую терминологию и контекст. Предприятия имеют больший контроль над процессом обучения и могут согласовать модель с их конкретными требованиями.
Тем не менее, риск галлюцинации все еще существует у SLM. Например, Yellow.ai использует модель проверки и контрольного списка для подтверждения актуальности и точности ответов. Несмотря на эти успехи, модель, ориентированная на отрасль, с участием человека остается лучшим подходом для снижения рисков и предоставления отличного обслуживания клиентов.
В заключение, несмотря на преимущества генеративного AI, гибридный подход, сочетающий преимущества AI и человеческих агентов, является ключевым для обеспечения эффективного и надежного обслуживания клиентов. Нахождение баланса между автоматизацией AI и вмешательством человека гарантирует, что эмоциональный интеллект, тонкое понимание и сложное решение проблем не страдают.