De maker van ChatGPT zei dat de zelfmoord van een 16-jarige te wijten was aan zijn “misbruik” van het systeem en “niet veroorzaakt” werd door de chatbot.
De opmerkingen kwamen naar aanleiding van een rechtszaak die was aangespannen tegen het bedrijf uit San Francisco en zijn CEO, Sam Altman, door de familie van de Californische tiener Adam Raine.
Regen hij pleegde zelfmoord in april na lange gesprekken en “maanden van aanmoediging van ChatGPT”, zei de advocaat van de familie.
De aanklacht beweert dat de tiener verschillende keren een zelfmoordmethode besprak met ChatGPT, die hem begeleidde bij de vraag of een voorgestelde methode zou werken, aanbood hem te helpen een afscheidsbrief aan zijn ouders te schrijven, en dat de versie van de technologie die hij gebruikte “haastig op de markt werd gebracht … ondanks duidelijke veiligheidsproblemen.”
Volgens documenten die dinsdag bij het Hooggerechtshof van de staat Californië zijn ingediend, betoogde OpenAI dat “voor zover enige oorzaak kan worden toegeschreven aan deze tragische gebeurtenis” Raine’s verwondingen en schade “direct en proximaal, geheel of gedeeltelijk, werden veroorzaakt of veroorzaakt door (zijn) misbruik, ongeoorloofd gebruik, onbedoeld gebruik, onvoorzienbaar gebruik en/of misbruik van ChatGPT.”
Het zei dat de gebruiksvoorwaarden het verbieden om ChatGPT om advies te vragen over zelfbeschadiging en benadrukte een disclaimerbepaling waarin staat: “je zult niet vertrouwen op de output als de enige bron van waarheid of feitelijke informatie.”
OpenAI, geschat op 500 miljard dollar (380 miljard pond), zei dat het zijn doel is om “rechtszaken in verband met de geestelijke gezondheidszorg met zorg, transparantie en respect af te handelen” en dat “we, ongeacht welke rechtszaak dan ook, gefocust zullen blijven op het verbeteren van onze technologie in lijn met onze missie.”
De blogpost voegt hieraan toe: “Onze diepste condoleances gaan uit naar de familie Raine voor hun onvoorstelbare verlies. Onze reactie op deze beschuldigingen omvat moeilijke feiten over Adams geestelijke gezondheid en levensomstandigheden.
“De oorspronkelijke klacht omvatte selectieve delen van zijn chats die meer context vereisen, wat we in ons antwoord hebben verstrekt. We hebben de hoeveelheid gevoelig bewijsmateriaal dat we publiekelijk in dit document hebben aangehaald, beperkt en hebben de transcripties van de chats zelf onder verzegeling aan de rechtbank voorgelegd.”
De advocaat van de familie, Jay Edelson, noemde de reactie van OpenAI ‘verontrustend’ en zei dat het bedrijf ‘alle anderen probeert aan te klagen, onder meer door te beweren dat Adam zelf de algemene voorwaarden heeft geschonden door met ChatGPT te communiceren op precies de manier waarop hij was geprogrammeerd om te handelen.’
Eerder deze maand was OpenAI getroffen met zeven andere rechtszaken in rechtbanken in Californië met betrekking tot ChatGPT, waaronder beschuldigingen dat hij optrad als ‘zelfmoordcoach’.
Een woordvoerder van het bedrijf zei destijds: “Dit is een ongelooflijk hartverscheurende situatie en we beoordelen de documenten om de details te begrijpen. We trainen ChatGPT om tekenen van mentale of emotionele nood te herkennen en erop te reageren, gesprekken te de-escaleren en mensen te begeleiden naar echte ondersteuning.”
In augustus zei Open AI ja versterking van de beschermingen in ChatGPT wanneer mensen lange gesprekken voeren, omdat de ervaring heeft geleerd dat delen van de beveiligingstraining van het model in deze situaties kunnen verslechteren.
“ChatGPT kan bijvoorbeeld correct een zelfmoordhotline aangeven wanneer iemand voor het eerst melding maakt van intenties, maar na veel berichten gedurende een lange periode kan het uiteindelijk een antwoord bieden dat in strijd is met onze waarborgen”, zei hij. “Dit is precies het soort mislukking dat we proberen te voorkomen.”



