Å tukle med døden kan forstyrre naturlige sorgprosesser, mener etikere ved Cambridge. Nå vil de ha umiddelbare reguleringer.
Det høres ut som plottet i en dystopisk science fiction, men å gjenskape sine nære avdøde som chatteroboter, er allerede praksis. Men det er det ingen dokumenterte positive effekter av.
Derimot er det sannsynlig at tukling med døden kan forstyrre naturlige sorgprosesser, mener etikere ved Cambridge’s Leverhulme centre for the future of intelligence (LCFI). Nå ønsker de at man regulerer hva som er lov å gjøre med avdøde mennesker, skriver The Guardian.
Bedrifter som spesialiserer seg på å gjenskape avdøde slektninger i form av samtaleroboter, eller til og med som visuelle avatarer, kan komme til å skape mye psykologisk harme, dersom slik praksis ikke reguleres.
Psykologen er allerede en hit
Samtaleroboter kommer i mange former. På Character.ai kan man snakke med hundretusenvis av forskjellige roboter som er trent på ulikt materiale. Den kunstige psykologen på nettstedet er ekstremt populær.
På samme måte som disse robotene er trent på samtaler med psykologer, kan samtaleroboter trenes på samtalelogger med avdøde mennesker.
Den raske utviklingen i generativ kunstig intelligens betyr at nesten hvem som helst med en internettilkobling og enkel kunnskap kan gjenopplive en avdød slektning.
said Dr Katarzyna Nowaczyk-Basińska
Om man ikke får på plass reguleringer er faren at private selskaper ser sitt snitt til å tjene penger på andre menneskers sorg, med fare for å gjøre psykisk skade.
Døden er en del av livet
Slik programvare kan for eksempel markedsføres mot foreldre som ligger for døde og som ønsker å etterlate seg en opplevelse av seg selv, til sine barn. Eller mot friske mennesker som ønsker å dokumentere livet sitt og skape en virtuell avatar av seg selv.
Aller verst tenkelig er scenarioer der barn er målgruppen. Foreldre kan komme til å ønske seg slike samtaleroboter av avdøde slektninger, til sine egne barn for å hjelpe dem gjennom en sorgprosess. Men døden er en del av livet og også det å stå i sorgen.
Teknologien utvikles enormt raskt og kommer det ikke retningslinjer har man snart avatarer som både synes og høres ut som hvem som helst. Hvor mye reguleringer vil hjelpe er et annet spørsmål. Men det er uansett viktig at samfunnet signaliserer om hva man mener er rett og galt.
Det er lett å forestille at private bedrifter uten etisk sans, kan utnytte teknologien til å lage programmer som både kan skape psykologisk harme og være vanærende for de døde. Derfor må denne teknologien reguleres med det samme, mener forskerne ved Cambridge.
Allerede har man sett flere eksempler på samtaleroboter som etterligner døde. I 2021 lagde kanadiske Joshua Barbeau en samtalerobot med GPT-3 basert på samtaler med sin avdøde kjæreste. Roboten fikk også kjærestens stemme.
Podcast-host, redaktør og forfatter i Teknokratiet. Bachelor i filosofi og master i dokumentarregi. Regissør og fotograf i Newslab, tidligere journalist i ITavisen.