Et cutting-edge AI-system er blevet udviklet af et hold forskere på Massachusetts Institute of Technology (MIT) ledet af Carl Vondrick. Denne AI har evnen til at forudsige nært forestående scenarier ud fra statiske billeder.
Forskningsholdet trænede AI-systemet ved at give det to millioner videoer, der viser forskellige kontekster såsom strande, golfbaner, togstationer og børn på hospitaler. Disse videoer var ikke mærkede, hvilket betyder, at AI’en ikke havde forudgående viden om deres indhold. Derefter præsenterede de AI’en med stadig billeder og opgav den at generere korte videosekvenser, der simulerede den næste sekvens af begivenheder. For eksempel kunne AI’en simulere en bevægende togeffekt, når den blev vist et billede af en togstation.
At undervise AI i at forvente fremtidige begivenheder hjælper den med at opnå dybere indblik i den aktuelle verden. Dette system har potentiale til anvendelse på tværs af forskellige områder, såsom at hjælpe AI med at genkende, når nogen er ved at falde for at udsende advarsler eller bistå selvkørende biler med at forudsige og undgå farlige situationer.
Pt. har de videoer, der genereres af AI, lav opløsning og varer lidt over et sekund, men de er bemærkelsesværdigt intelligente og kan præcist forudsige bevægelser inden for hver scene, f.eks. et tog, der bevæger sig ligeud eller et barns ansigtsudtryk.
Vondrick og hans hold arbejder ufortrødent på at forbedre systemets evner for yderligere at revolutionere, hvordan AI kan forudsige og fortolke verden ud fra stadig billeder.