NVIDIA представила чат с RTX, новаторское техническое демо, которое позволяет пользователям раскрыть возможности генеративного искусственного интеллекта (gen AI) чат-ботов на их локальных компьютерах. Но то, что выделяет это предложение, это настраиваемость. Используя мощный GPU NVIDIA GeForce RTX серии 30 или выше, а также как минимум 8 ГБ VRAM, пользователи могут воспользоваться обширным набором данных и контекста, чтобы улучшить ответы чат-бота.
«Чат с RTX привносит возможности генеративного искусственного интеллекта на локальные компьютеры с GPU GeForce», объясняет Джесси Клейтон из NVIDIA. «Пользователи могут без проблем интегрировать различные локальные файлы, включая обычный текст, документы Microsoft Word, файлы PDF, а также видео и плейлисты YouTube, чтобы предоставить чат-боту ценную информацию».
В отличие от облачных сервисов языковых моделей, чат с RTX обрабатывает данные локально, обеспечивая более быстрые результаты и максимальную конфиденциальность. Теперь пользователи могут задействовать мощность своего собственного компьютера, не передавая конфиденциальные данные третьим сторонам или полагаясь на интернет-соединение.
Разработчики найдут еще большую ценность в чате с RTX. Техническое демо, совместимое с Windows 10 и выше, GPU NVIDIA GeForce RTX серии 30 с 8 ГБ VRAM или более и последними драйверами для графических карт, служит мостиком к ускорению больших языковых моделей (LLM) с использованием GPU RTX. Справочный проект разработчиков TensorRT-LLM RAG от NVIDIA, который доступен на GitHub, даёт разработчикам возможность создавать и развертывать собственные приложения на основе RAG, расширяя ещё больше возможности генеративного ИИ.
Почувствуйте трансформационный потенциал генеративного ИИ с помощью чата с RTX. Посетите веб-сайт NVIDIA и загрузите это замечательное техническое демо уже сегодня. Раскройте свое воображение и откройте безграничные возможности локализованного генеративного ИИ с использованием GPU.
FAQ — Чат с RTX
The source of the article is from the blog crasel.tk