Stort vårslipp fra OpenAI: Multimodal GPT-4o blir tilgjengelig for alle – forstår tekst, bilder og video med en naturlig og følsom stemmeassistent som er nærmest like imponerende som Samantha i filmen H.E.R.
Gårsdagens våroppdatering fra OpenAI bø på flere magiske øyeblikk. Igjen viser OpenAI hvem som er kongen av kunstig intelligens. Selskapet slipper en ny modell kalt GPT-4o, som blir tilgjengelig både for betalende brukere og de med gratisabonnement.
OpenAI just announced "GPT-4o". It can reason with voice, vision, and text.
— Lior⚡ (@AlphaSignalAI) May 13, 2024
The model is 2x faster, 50% cheaper, and has 5x higher rate limit than GPT-4 Turbo.
It will be available for free users and via the API.
The voice model can even pick up on emotion and generate… pic.twitter.com/X8zqN9bxFp
GPT-4o er mulitmodal, mer effektiv på 50 forskjellige språk, og kan analysere bilder, video og stemme. Den kan snakkes til som en hvilken som helst annen person, og svarer forbløffende bra.
Les også: – Bruk av kunstig intelligens til å gjenskape døde må reguleres nå
At det ikke skulle gå mer enn 10 år fra Spike Jonze’s premiere på H.E.R. til teknologien er her, er nesten ikke til å tro.
2. Emotion and face detection pic.twitter.com/01eJ52JLuE
— Lior⚡ (@AlphaSignalAI) May 13, 2024
GPT-4 for alle
Med GPT-4o blir kunstig intelligens på GPT-4-nivå tilgjengelig for både både betalende og ikke-betalende brukere.
OpenAI oppdaterer også brukergrensesnittet i ChatGPT og slipper en ny skrivebordsapp som skal gjøre det enklere å kombinere ChatGPT med andre programmer.
Stemmeassistent
Den nye modellen vil drive OpenAIs nye stemmeassistent som under demonstrasjonen hørtes svært naturlig ut. Stemmeassistenten kommer også til en ny skrivebordsapplikasjon som får både stemme og synsegenskaper.
Nå kan ChatGPT beskrive hva som skjer i en videostrøm eller på skjermen din, og gi tilbakemeldinger på det den ser i sanntid. Man kan også laste opp bilder, skjermdumper, dokumenter med tekst og bilder.
5. Visually understand images, plots, and code. pic.twitter.com/vCWSBRiIxb
— Lior⚡ (@AlphaSignalAI) May 13, 2024
Med «memory» husker ChatGPT hva du har snakket med den om tidligere, og med «browse» kan du bruke den til å søke opp informasjon på nett.
Stemmeassistenten virker også rask og naturlig, nærmest som en ekte person. Den forstår også hva slags tone man snakker til den med.
1. Real time translation pic.twitter.com/cPGByaQwmN
— Lior⚡ (@AlphaSignalAI) May 13, 2024
Nå er fremtiden her.
Podcast-host, redaktør og forfatter i Teknokratiet. Bachelor i filosofi og master i dokumentarregi. Regissør og fotograf i Newslab, tidligere journalist i ITavisen.