Inden 16-årige Adam Raine tog sit eget liv, betroede han ChatGPT sine inderste hemmeligheder. Nu skruer tech-giganten bag den hyper-populære chatrobot op for sikkerheden.
OpenAI annoncerer denne uge store ændringer, som skal beskytte unge mennesker i deres samtaler med ChatGPT.
Det sker i kølvandet på skræmmende historier om unge, der har chattet med den kunstige intelligens i skrøbelige situationer.
Særligt historien om 16-årige Adam Raine fra Californien, som New York Times har beskrevet, har vakt stor opsigt, efter hans forældre har givet chat-robotten skylden for hans død.
Raine, som var selvmordstuet, havde gennem lang tid skrevet frem og tilbage med ChatGPT og blandt andet drøftet metoder til at tage sit eget liv med et reb.
I én af flere hårrejsende samtaler har ChatGPT for eksempel givet ham feedback på en løkke, han havde bundet til at hænge sig i.
»Kunne den hænge et menneske?,« spurgte han, hvilket ChatGPT bekræftede.
Da han senere betroede robotten, at han ønskede at lade løkken ligge fremme på sit værelse, så nogen ville opdage den - potentielt set et råb om hjælp - frarådede robotten ham at gøre det.
Hans forældre har nu sagsøgt OpenAI. De mener, at deres søn stadig havde været i live, var det ikke for ChatGPT.
Imens har AP News beskrevet, hvordan ChatGPT instruerer unge i alt fra brug af rusmidler til hvordan de kan skjule spiseforstyrrelser eller komponere et selvmordsbrev.
OpenAIs stifter, Sam Altman, skriver i en pressemeddelelse, at ChatGPT fremover vil vurdere ud fra samtalen, om brugere er over eller under 18 år, når de bruger tjenesten.
Er de under 18 år, vil andre sikkerhedsforanstaltninger komme i spil.
Hvis brugere under 18 år viser tegn på selvmordstanker, vil OpenAI forsøge at kontakte forældrene eller myndighederne, lyder det videre.