Bruker KI til å lage barneporno

Vi nærmer oss et tippepunkt, melder Internett Watch Foundation (IWF). Det florerer av falsk barneporno generert med kunstig intelligens. Ofte er det nærmest umulig å si om videoene er falske eller om det er virkelige ofre som trenger hjelp.

På bare seks måneder har mengden KI-laget ulovlig innhold overgått alt som ble laget ifjor, skriver The Guardian. Nesten alt innholdet er tilgjengelig på det åpne nettet.

IWFs leder, Derek Ray-Hill, sier at sofistikerte AI-verktøy, trent på bilder av ekte ofre, brukes til å generere realistiske overgrepsbilder- og filmer.

Les også: «Boter» som fjerner klær på bilder har millioner av brukere på Telegram

Ifølge IWFs midlertidige leder, Derek Ray-Hill, viser bildenes detaljnivå at KI-verktøyene som brukes, er trent på ekte bilder og videoer. De KI-genererte bildene er nå så realistiske at de bryter britisk lov. Og teknikken bryter definitivt loven.

Gjør kjendiser til barneofre

IWF melder også at det er blitt vanligere med deep fake-porno der man bruker kunstig intelligens til å manipulere kjendiser om til barn for deretter å manipulere dem inn i overgrepsvideoer. Man ser også at porno blir manipulert til å se ut som det er barn i bildet.

I løpet av det siste halvåret har over halvparten av det nye KI-genererte overgrepsmaterialet blitt hostet på servere i Russland og USA, med Japan og Nederland også på listen over land som oppbevarer slikt innhold.

For å motvirke dette, oppretter IWF en liste over nettadresser som distribuerer materialet, og deler denne med teknologiselskaper som kan blokkere tilgangen.

Les mer

Snubler over overgrepsmateriale

Åtte av ti rapporter om ulovlig AI-generert materiale kommer fra vanlige brukere, som finner disse bildene på offentlige nettsteder, inkludert forum og gallerier for AI-skapt innhold. Offentligheten ser ut til å snuble over dette innholdet, noe som viser hvor bredt spredt problemet er blitt.

Dette skjer samtidig som plattformer som Instagram tar grep mot andre typer digital kriminalitet, som sextorsjon, der ofre presses til å sende intime bilder under trusler. Nå vil alle bilder som sendes, som Instagrams alogritmer leser som nakenbilder, gjøres uskarpe. Så kan brukeren selv velge om hun vil se bildet.

Funksjonen blir standard for alle tenåringer globalt fra og med denne uken.

Ansvarlig redaktør: Ole Magnus Kinapel.
Ta kontakt på desk(at)teknokratiet.no
© 2023 Teknokratiet.