Runway Gen-3 Alpha introduserer video-til-video. Nå kan du forvandle et vanlig videoklipp til en blockbuster-scene på bare noen minutter.
RunwayMLs har lansert et video-til-video verktøy som lar brukere ta virkelige videoer og endre dem med kunstig intelligens. Den nye varianten Runway Gen-3 Alpha markerer et betydelig skritt fremover for film laget med kunstig intelligens. Og i enda større grad virker det sikkert, at fremtidens eneste kreative yrke er å være prompt-skribent.
Runway begynte med tekst-til-video, men var raskt ute med video-til-video. Og nå kan du altså starte prosessen med video.
Og den nye programvaren ser umiddelbart svært imponerende ut, uten at vi selv har testet den. Nå kan du mate Runway Gen-3 Alpha med opptak gjort i den virkelige verden, og be programvaren, med enkel tekst-spørringer (prompt), om å endre videoen slik du vil.
Fra tidligere av har RunwayML hatt programvare som har vært rangert blant de beste KI-verktøyene. De nye funksjonene blir tilgjengelige for betalende kunder som kan laste opp filmklippene sine og skrive inn i programmet hva de ønsker at skal endres. Sånn kan man enkelt forvandle virkeligheten til noe helt annet.
For eksempel kan et klipp av en løpende person i en park gjøres om til at samme person beveger seg gjennom et undervannslandskap på en fremmed planet.
Starten på slutten for motion capture
Den største forskjellen fra bilde-til-video er at brukeren selv bestemmer bevegelsene i filmen. Slik kan motion-capture-teknologi der man tar på seg drakter som sporer bevegelsene til en aktør, for så å bruke bevegelsene i et animasjonsprogram for å lage animerte figurer, snart være avleggs.
Nå kan Runway analysere like avanserte bevegelser å forstå hva som skal endres, uten avanserte drakter.
Podcast-host, redaktør og forfatter i Teknokratiet. Bachelor i filosofi og master i dokumentarregi. Regissør og fotograf i Newslab, tidligere journalist i ITavisen.