OpenAI slipper GPT-4o som er omtrent like bra som Samantha i H.E.R.

Stort vårslipp fra OpenAI: Multimodal GPT-4o blir tilgjengelig for alle – forstår tekst, bilder og video med en naturlig og følsom stemmeassistent som er nærmest like imponerende som Samantha i filmen H.E.R.

Gårsdagens våroppdatering fra OpenAI bø på flere magiske øyeblikk. Igjen viser OpenAI hvem som er kongen av kunstig intelligens. Selskapet slipper en ny modell kalt GPT-4o, som blir tilgjengelig både for betalende brukere og de med gratisabonnement.

GPT-4o er mulitmodal, mer effektiv på 50 forskjellige språk, og kan analysere bilder, video og stemme. Den kan snakkes til som en hvilken som helst annen person, og svarer forbløffende bra.

Les også: – Bruk av kunstig intelligens til å gjenskape døde må reguleres nå

At det ikke skulle gå mer enn 10 år fra Spike Jonze’s premiere på H.E.R. til teknologien er her, er nesten ikke til å tro.

GPT-4 for alle

Med GPT-4o blir kunstig intelligens på GPT-4-nivå tilgjengelig for både både betalende og ikke-betalende brukere.

OpenAI oppdaterer også brukergrensesnittet i ChatGPT og slipper en ny skrivebordsapp som skal gjøre det enklere å kombinere ChatGPT med andre programmer.

Stemmeassistent

Den nye modellen vil drive OpenAIs nye stemmeassistent som under demonstrasjonen hørtes svært naturlig ut. Stemmeassistenten kommer også til en ny skrivebordsapplikasjon som får både stemme og synsegenskaper.

Nå kan ChatGPT beskrive hva som skjer i en videostrøm eller på skjermen din, og gi tilbakemeldinger på det den ser i sanntid. Man kan også laste opp bilder, skjermdumper, dokumenter med tekst og bilder.

Les mer

Med «memory» husker ChatGPT hva du har snakket med den om tidligere, og med «browse» kan du bruke den til å søke opp informasjon på nett.

Stemmeassistenten virker også rask og naturlig, nærmest som en ekte person. Den forstår også hva slags tone man snakker til den med.

Nå er fremtiden her.

Ansvarlig redaktør: Ole Magnus Kinapel.
Ta kontakt på desk(at)teknokratiet.no
© 2023 Teknokratiet.