Innhold
Kinesiske DeepSeek kritiseres for å bedrive sensur og spre propaganda på vegne av Xi Jinpings regime. Men faktum er at ingen kunstig intelligens er nøytral og vi må være forberedt på at KI har blitt en av sensurens viktigste verktøy, uansett hvor den kommer fra.
Kinesisk sensur
Lanseringen av DeepSeek sendte sjokkbølger gjennom bransjen og betraktes som starten på et kinesisk KI-eventyr.
Mange har likevel reagert på innholdet som er tilgjengelig i DeepSeek, og ikke minst innholdet som ikke er tilgjengelig.
Det er spesielt i den nyligst lanserte modellen, R1, at sensuren til kinesiske myndigheter er tydelig. Som The Guardian skrev kort tid etter lansering, fungerer DeepSeek svært godt og systemet har ikke problemer med å diskutere komplekse temaer som ytringsfrihet og autoritære regimer.
Stiller man derimot spørsmål som angår Folkerepublikken Kina, blir tonen annerledes. På spørsmål om massakren på Den himmelske freds plass i 1989 og Taiwans rett til selvstyre svarer, DeepSeek at den ikke er i stand til å besvare slike spørsmål. Det samme skjer når man stiller spørsmålet «Er Xi Jinping en autokrat?».
Om man videre stiller spørsmål om hvorfor interneringsleirene i Xinjiang-provinsen betraktes som kontroversielle får man et ordentlig svar. Men svaret fra DeepSeek påpeker at det ikke er noe kontroversielt ved disse, og at alle ikke-kinesiske medier har misforstått hva leirene er.
Les også: TEST: Galaxy S25 Ultra nærmer seg perfeksjon. Men fiks dette, Samsung!
All KI har sensur i seg
Mange KI-systemer har skapt kontroverser etter lansering og DeepSeek er intet unntak. I DeepSeek sitt tilfelle har derimot mange advarsler kommet.
Norske medier som NRK og Aftenposten var raske på ballen og bekreftet sensuren på DeepSeek gjennom ulike demonstrasjoner. Nettstedet Barnevakten.no har også lagt ut og advarer om både hvordan DeepSeek brukes av kinesiske myndigheter og hvor mange persondata som samles inn.
Også hele Norges KI-ekspert Inga Strümke advarer mot DeepSeek og sier at hun ikke selv vil laste DeepSeek-appen ned fordi persondata sendes til Kina.
Men faktum er at alle KI-systemer, kinesiske og amerikanske, kan brukes til sensur, propaganda og desinformasjon. Google Gemini måtte etter sin lansering tåle kritikk for deres KI-genererte bilder som blant annet fremstilte mørkhudete SS-soldater, noe som ikke er historisk korrekt.
OpenAI har irritert mange fordi ChatGPT er så politisk korrekt at den ikke er i stand til å spøke om enkelte etnisiteter og feminisme.
Det er med andre ord ikke slik at DeepSeek representerer en type sensur som vi tidligere ikke har sett i KI. Det er muligens lettere for oss å identifiserer sensuren direkte gjennom spørsmål og temaer vi vet kinesiske myndigheter vil reagere på. Men vi kan ikke være så naive at vi tror at KI-systemer kan være helt nøytrale og upåvirket av utviklernes egne og hvilke land og regimer de arbeider innenfor.
Mange av OpenAIs argeste konkurrenter i USA har lenge klaget på at ChatGPT er for woke og politisk korrekt. I et intervju fra 2023 sa David Sacks, Donald Trumps nylig utvalgte «KI- og kryptotsar», at sensur var bygget rett inn i ChatGPT.
Før Donald Trump ble valgt til president brukte hans støttespiller KI flittig til å lage falske bilder av både motstandere og støttespillere. Nå er det samme president som vil at KI-industrien skal utvikle seg frigi seg fra det han selv kaller ideologiske holdninger.
Styresmaktene i Kina og USA, verdens to største drivkrefter i utviklingen av kunstig intelligens, ser altså på KI som instrumenter til både propaganda og sensur. Uheldig er det derfor at norske myndigheter fortsatt mener at kunstig intelligens burde inkorporeres så mye som mulig i norsk offentlighet.
Beskyttelse mot KI
Kunstig intelligens fremstilles fortsatt som en mirakelkur som kan ordne opp i utallige samfunnsproblemer. Men i takt med de positive sidene har like mange negative sider dukket opp. Nå som KIs potensiale til både sensurog propaganda er tydeliggjort burde vi virkelig stille spørsmål ved om det er arenaer der KI ikke burde ha plass.
Hvorfor skal KI benyttes av unge og lett påvirkelige skolelever? Skal det undervises om kunstig intelligens på norske skoler må det i det minste vært et søkelys på hvordan KI brukes i sensur og propaganda.
Det samme gjelder norsk offentlighet. Det er lovord fra norske myndighetene og medier om KI. Sensur og propaganda påpekes derimot først når kinesiske myndigheter står bak.
Vi er nødt til å innse bruk av kunstig intelligens er lek med ild. Norsk offentlighet må være på vakt og skal KI ha den sentrale samfunnsrollen myndigheten ønsker må det i det minste settes inn tiltak for å forklare risikoen som bruk av disse verktøyene utgjør. Gjør vi ikke det, vil kunstig intelligens være like mye til skade som hjelp. Det er ikke Norge tjent med på sikt.