Snowflake, une plateforme cloud, a introduit une série d’intégrations innovantes pour les projets d’intelligence artificielle générative. Grâce à des partenariats stratégiques avec diverses entreprises technologiques, Snowflake propose désormais des fonctionnalités améliorées sur sa plateforme Snowflake Cortex AI, offrant aux organisations des approches simplifiées pour développer et déployer des applications d’IA.
Dans une évolution significative, Snowflake a peaufiné le modèle Llama 3.1, l’optimisant pour les processus d’inférence et de réglage fin. Cette amélioration conduit à des améliorations de performances remarquables par rapport aux solutions existantes, permettant aux entreprises clientes de réaliser le réglage fin des modèles directement sur un seul nœud GPU, ce qui entraîne des coûts et des délais de développement réduits.
Innovant pour les entreprises et la communauté open source, les efforts de Snowflake visent à maximiser les potentiels des grands modèles de langue comme Llama 3.1. Vivek Raghunathan, VP de l’Ingénierie en IA chez Snowflake, a souligné l’engagement de la plateforme à faire avancer l’écosystème de l’IA grâce à la fourniture de technologies de pointe et à la promotion des contributions open source.
Soulignant l’engagement envers un écosystème d’IA ouvert et collaboratif, Snowflake a publié en open source le système d’inférence Llama 3.1, encourageant les développeurs à améliorer et à étendre ses fonctionnalités. La collaboration avec des leaders de l’industrie tels que DeepSpeed, Hugging Face et vLLM vise à établir un environnement d’outils et de ressources ouverts pour le développement et le déploiement de LLM.
La pile d’optimisation du système d’inférence massive et de réglage fin de Snowflake offre des performances et une flexibilité exceptionnelles. En exploitant des techniques avancées de traitement parallèle et d’optimisation de la mémoire, Snowflake permet des inférences en temps réel et haute performance sur du nouveau matériel ou déjà existant, permettant aux data scientists d’adapter les modèles Llama 3.1 à leurs besoins spécifiques sans dépendre d’infrastructures complexes et coûteuses.
Pour protéger les applications et les ressources LLM développées sur Cortex AI, Snowflake a intégré Cortex Guard. Cette solution de sécurité, utilisant les modèles de sécurité de Meta, y compris Llama Guard 2, détecte et atténue les risques liés à l’abus de l’intelligence artificielle, assurant une protection renforcée des mises en œuvre d’IA.