Straftat angehängt

ChatGPT riet einem Mann zu doppeltem Kindsmord

Teilen

Der weltbekannte KI-Chatbot ChatGPT hat jetzt einem Mann offenbar zu einem Gewaltverbrechen geraten.

Einer Wiener Datenschutz-NGO hat laut Standard-Bericht eine Beschwerde eingereicht und warnt vor Folgen von KI-Antworten.

Fake News oftmals Problem 

Auch Falschinformationen sind dabei ein häufiges Problem von KI-Chatbot-Antworten. Dabei werden immer wieder Personen, die in der Öffentlichkeit stehen, mit rufschädigenden Inhalten konfrontiert. 

Die Datenschutz-NGO Noyb aus Wien warnt laut dem Bericht in "der Standard" vor den Konsequenzen von Falschinformationen über Personen - insbesondere dann, wenn ihnen von Chatbots schwere Straftaten vorgeworfen werden. Dabei wird das Unternehmen hinter ChatGPT - OpenAI - immer wieder geklagt. Das Unternehmen reagierte mit einem kurzen Haftungsausschluss, der falsche Ergebnisse nicht ausschließt. 

OpenAI unkooperativ

Auf die Versuche von der Datenschutz-NGO Noyb, bestimmte Falschinformationen korrigieren zu lassen, argumentierte OpenAI damals, es könne keine Daten korrigieren, sondern diese bei bestimmten Prompts sperren. Aber die falschen Informationen blieben trotzdem im System. Der angerichtete Schaden möge zwar geringer sein, wenn falsche Daten nicht weitergegeben werden, die DSGVO gilt aber auch dennoch auch für interne Daten.

"KI-Unternehmen müssen aufhören, so zu tun, als ob die DSGVO nicht für sie gilt. Wenn Halluzinationen nicht gestoppt werden, können Menschen leicht eine Rufschädigung erleiden", so Kleanthi Sardeli, Datenschutzjuristin bei der Wiener NGO im Standard-Artikel.

Fehler im Artikel gefunden? Jetzt melden.
OE24 Logo
Es gibt neue Nachrichten