Runway Gen-3 kommer med video-til-video: Starten på slutten for motion capture

Runway Gen-3 Alpha introduserer video-til-video. Nå kan du forvandle et vanlig videoklipp til en blockbuster-scene på bare noen minutter.

RunwayMLs har lansert et video-til-video verktøy som lar brukere ta virkelige videoer og endre dem med kunstig intelligens. Den nye varianten Runway Gen-3 Alpha markerer et betydelig skritt fremover for film laget med kunstig intelligens. Og i enda større grad virker det sikkert, at fremtidens eneste kreative yrke er å være prompt-skribent.

Noen høydepunkter fra Runway Gen-3 Alpha. (Ill: Runway)

Runway begynte med tekst-til-video, men var raskt ute med video-til-video. Og nå kan du altså starte prosessen med video.

Og den nye programvaren ser umiddelbart svært imponerende ut, uten at vi selv har testet den. Nå kan du mate Runway Gen-3 Alpha med opptak gjort i den virkelige verden, og be programvaren, med enkel tekst-spørringer (prompt), om å endre videoen slik du vil.

Fra tidligere av har RunwayML hatt programvare som har vært rangert blant de beste KI-verktøyene. De nye funksjonene blir tilgjengelige for betalende kunder som kan laste opp filmklippene sine og skrive inn i programmet hva de ønsker at skal endres. Sånn kan man enkelt forvandle virkeligheten til noe helt annet.

Ill: Runway AI video

For eksempel kan et klipp av en løpende person i en park gjøres om til at samme person beveger seg gjennom et undervannslandskap på en fremmed planet.

Les mer

Starten på slutten for motion capture

Den største forskjellen fra bilde-til-video er at brukeren selv bestemmer bevegelsene i filmen. Slik kan motion-capture-teknologi der man tar på seg drakter som sporer bevegelsene til en aktør, for så å bruke bevegelsene i et animasjonsprogram for å lage animerte figurer, snart være avleggs.

Nå kan Runway analysere like avanserte bevegelser å forstå hva som skal endres, uten avanserte drakter.

Ansvarlig redaktør: Ole Magnus Kinapel.
Ta kontakt på desk(at)teknokratiet.no
© 2023 Teknokratiet.