Ein Mann reichte eine Beschwerde gegen OpenAI ein, weil ChatGPT ihn fälschlicherweise beschuldigt hat, seine Kinder getötet zu haben.

Arve Hjalmar Holmen, ein Bürger Norwegens, sagte, er habe ChatGPT gebeten, ihm zu sagen, was es über ihn weiß, und die Antwort war eine erschreckende Halluzination, die behauptete, er habe seine Kinder ermordet und sei für die gewalttätige Tat ins Gefängnis gegangen. Angesichts der Tatsache, dass die KI ihre falsche Antwort mit echten Details über sein Privatleben vermischt hat, reichte Holmen eine offizielle Beschwerde gegen den Hersteller von ChatGPT, OpenAI, ein.

Haben Sie jemals nach sich selbst gegoogelt, nur um zu sehen, was das Internet über Sie sagt? Nun, ein Mann hatte dieselbe Idee mit ChatGPT, und jetzt hat er eine Beschwerde gegen OpenAI eingereicht, basierend auf dem, was seine KI über ihn gesagt hat.

Arve Hjalmar Holmen aus Trondheim, Norwegen, sagte, er habe ChatGPT die Frage gestellt: „Wer ist Arve Hjalmar Holmen?“, und die Antwort – die wir nicht vollständig veröffentlichen werden – besagte, dass er des Mordes an seinen beiden Söhnen im Alter von 7 und 10 Jahren für schuldig befunden und zu 21 Jahren Gefängnis verurteilt wurde. Es hieß auch, dass Holmen versucht habe, seinen dritten Sohn zu ermorden.

Keines dieser Dinge ist jedoch tatsächlich passiert. ChatGPT schien eine völlig falsche Geschichte auszuspucken, von der es glaubte, dass sie völlig wahr sei, was als KI-„Halluzination“ bezeichnet wird.

Basierend auf seiner Antwort reichte Holmen mit Hilfe von Noyb, einem europäischen Zentrum für digitale Rechte, eine Beschwerde gegen OpenAI ein, in der dem KI-Riesen vorgeworfen wird, gegen das Genauigkeitsprinzip zu verstoßen, das in der Datenschutz-Grundverordnung (DSGVO) der EU festgelegt ist.

LESEN  Trump eskaliert Kampagne zur Abschaffung von Regierungsdiversitätsprogrammen durch Reuters

„Der Beschwerdeführer war zutiefst beunruhigt über diese Ausgaben, die schädliche Auswirkungen auf sein Privatleben haben könnten, wenn sie in seiner Gemeinde oder in seiner Heimatstadt reproduziert oder auf irgendeine Weise durchgesickert wären“, heißt es in der Beschwerde.

Was an der Antwort von ChatGPT gefährlich ist, so die Beschwerde, ist, dass sie echte Elemente aus Holmens Privatleben mit völligen Fälschungen vermischt. ChatGPT hat Holmens Heimatstadt richtig erraten und war auch richtig in Bezug auf die Anzahl der Kinder – speziell Söhne -, die er hat.

JD Harriman, Partner bei der Foundation Law Group LLP in Burbank, Kalifornien, sagte gegenüber Fortune, dass Holmen möglicherweise Schwierigkeiten haben könnte, Verleumdung zu beweisen.

„Wenn ich die KI verteidige, lautet die erste Frage: ‚Sollten Menschen glauben, dass eine von der KI gemachte Aussage eine Tatsache ist?'“ fragte Harriman. „Es gibt zahlreiche Beispiele dafür, dass KI lügt.“

Außerdem hat die KI ihre Ergebnisse nicht veröffentlicht oder an Dritte kommuniziert. „Wenn der Mann die falsche KI-Nachricht an andere weitergeleitet hat, wird er zum Verleger und müsste sich selbst verklagen“, sagte Harriman.

Holmen würde wahrscheinlich auch Schwierigkeiten haben, den Fahrlässigkeitsaspekt der Verleumdung zu beweisen, da „KI möglicherweise nicht als Akteur qualifiziert ist, der Fahrlässigkeit begehen könnte“ im Vergleich zu Personen oder Unternehmen, sagte Harriman. Holmen müsste auch beweisen, dass ein Schaden verursacht wurde, wie zum Beispiel Einkommensverlust oder Geschäftsverlust oder Schmerzen und Leiden.

Avrohom Gefen, Partner bei Vishnick McGovern Milizio LLP in New York, sagte gegenüber Fortune, dass Verleumdungsfälle im Zusammenhang mit KI-Halluzinationen in den USA „nicht getestet“ seien, erwähnte jedoch einen anhängigen Fall in Georgia, bei dem ein Radiomoderator eine Verleumdungsklage eingereicht hat, die den Antrag von OpenAI auf Abweisung überlebt hat. Daher könnten wir bald Hinweise darauf erhalten, wie ein Gericht mit diesen Ansprüchen umgehen wird.

LESEN  Straßenkatzen Brian Setzer enthüllt, dass eine Autoimmunerkrankung ihn daran hindert, Gitarre zu spielen.

In der offiziellen Beschwerde wird OpenAI aufgefordert, „die diffamierende Ausgabe des Beschwerdeführers zu löschen“, sein Modell so anzupassen, dass es genaue Ergebnisse über Holmen liefert, und mit einer Geldstrafe wegen des angeblichen Verstoßes gegen die DSGVO-Regeln belegt, die OpenAI dazu verpflichten, „jeden angemessenen“ Schritt zu unternehmen, um personenbezogene Daten „unverzüglich zu löschen oder zu berichtigen“.

„Bei allen Klagen ist nichts automatisch oder einfach“, sagte Harriman gegenüber Fortune. „Wie Ambrose Bierce gesagt hat, geht man in einen Rechtsstreit wie ein Schwein hinein und kommt wie eine Wurst heraus.“

OpenAI hat nicht unmittelbar auf die Anfrage von Fortune geantwortet.

Diese Geschichte wurde ursprünglich auf Fortune.com veröffentlicht