Der weltbekannte KI-Chatbot ChatGPT hat jetzt einem Mann offenbar zu einem Gewaltverbrechen geraten.
Einer Wiener Datenschutz-NGO hat laut Standard-Bericht eine Beschwerde eingereicht und warnt vor Folgen von KI-Antworten.
- ChatGPT-Chef verspottet Elon Musk: "Verrückt"
- Musk will ChatGPT-Erfinder für 100 Mrd. Euro kaufen
- Künstliche Intelligenzen sind keine Geschichtsexperten
Fake News oftmals Problem
Auch Falschinformationen sind dabei ein häufiges Problem von KI-Chatbot-Antworten. Dabei werden immer wieder Personen, die in der Öffentlichkeit stehen, mit rufschädigenden Inhalten konfrontiert.
Die Datenschutz-NGO Noyb aus Wien warnt laut dem Bericht in "der Standard" vor den Konsequenzen von Falschinformationen über Personen - insbesondere dann, wenn ihnen von Chatbots schwere Straftaten vorgeworfen werden. Dabei wird das Unternehmen hinter ChatGPT - OpenAI - immer wieder geklagt. Das Unternehmen reagierte mit einem kurzen Haftungsausschluss, der falsche Ergebnisse nicht ausschließt.
OpenAI unkooperativ
Auf die Versuche von der Datenschutz-NGO Noyb, bestimmte Falschinformationen korrigieren zu lassen, argumentierte OpenAI damals, es könne keine Daten korrigieren, sondern diese bei bestimmten Prompts sperren. Aber die falschen Informationen blieben trotzdem im System. Der angerichtete Schaden möge zwar geringer sein, wenn falsche Daten nicht weitergegeben werden, die DSGVO gilt aber auch dennoch auch für interne Daten.
"KI-Unternehmen müssen aufhören, so zu tun, als ob die DSGVO nicht für sie gilt. Wenn Halluzinationen nicht gestoppt werden, können Menschen leicht eine Rufschädigung erleiden", so Kleanthi Sardeli, Datenschutzjuristin bei der Wiener NGO im Standard-Artikel.