Le Dernier Modèle d’IA de Meta Dévoilé à Travers une Vidéo Rétro de Mark Zuckerberg sur Instagram

Mark Zuckerberg, le co-fondateur et PDG de Meta (auparavant Facebook), a surpris ses abonnés sur Instagram en partageant une vidéo rétro de lui-même jouant de la guitare et chantant pour sa fille, Maxima. Cependant, ce n’était pas qu’une simple publication ordinaire. Zuckerberg a révélé qu’il testait le dernier modèle d’intelligence artificielle (IA) de Meta, appelé V-JEPA, à travers cette vidéo.

V-JEPA, abréviation de Video Joint Embedding Predictive Architecture, est un modèle révolutionnaire d’analyse prédictive qui apprend exclusivement à partir de supports visuels. Contrairement aux modèles d’IA traditionnels, V-JEPA ne repose pas sur des méthodes génératives, mais apprend plutôt en prédisant les parties manquantes ou masquées d’une vidéo dans un espace de représentation abstraite.

Dans la légende de la publication sur Instagram, Zuckerberg a expliqué l’importance de la vidéo et du modèle d’IA. Il a partagé : « Retour en arrière en chantant l’une des chansons préférées de Max. J’ai récemment testé cette vidéo avec un nouveau modèle d’IA qui apprend sur le monde en regardant des vidéos. Sans être formé pour le faire, notre modèle d’IA a prédit le mouvement de ma main pendant que je grattais des accords. Faites glisser pour voir les résultats. »

La publication comprenait deux vidéos. La première présentait la performance émouvante de Zuckerberg avec sa fille, tandis que la seconde affichait la prédiction précise des mouvements de sa main par le modèle V-JEPA pendant qu’il jouait de la guitare.

Pour former V-JEPA, Meta a utilisé une technologie de masquage innovante. Cela impliquait de masquer des parties de la vidéo dans le temps et l’espace, avec certaines images complètement supprimées ou noircies. Ce faisait, le modèle d’IA était mis au défi de prédire à la fois les images actuelles et les suivantes, améliorant ainsi sa compréhension du contenu et sa capacité à anticiper les événements futurs.

Meta affirme que V-JEPA effectue efficacement ces tâches et peut analyser des vidéos jusqu’à 10 secondes de longueur. Le modèle a montré des résultats prometteurs dans des tâches de reconnaissance d’actions de haute qualité, telles que distinguer entre des actions telles que poser un stylo, ramasser un stylo et faire semblant de poser un stylo sans le faire réellement.

L’utilisation de V-JEPA par Meta montre son engagement à faire progresser l’IA et l’apprentissage automatique. En développant des modèles innovants comme V-JEPA, Meta vise à repousser les limites de ce que l’IA peut accomplir, ouvrant de nouvelles possibilités pour diverses industries et applications.

Alors que Mark Zuckerberg continue d’explorer le potentiel de l’IA, nous pouvons nous attendre à d’autres développements passionnants de la part de Meta dans un avenir proche.

The source of the article is from the blog trebujena.net

Privacy policy
Contact