"Digi-Kannibalismus"

Wenn KI von KI lernt, kommt DAS dabei heraus

Teilen

Amerikanische Forscher haben herausgefunden, dass sich künstliche Intelligenz "kannibalisiert", indem sie durch die Nutzung selbst generierter Daten an Qualität verliert und so zunehmend falsche Ergebnisse liefert. 

Eine Studie der Rice University in Houston hat jüngst ergeben, dass KI-Modelle massiv darunter leiden, wenn sie mit KI-generierten Daten gefüttert werden. Dieser sich selbst verstärkende Prozess, den die Forscher "MAD" (Model Autophagy Disorder) nennen, führe zu einem erheblichen Qualitätsverlust. Besonders stark darunter leider würden generative Bildmodelle "DALL-E 3" und "Midjourney". 

MADai
© Digital Signal Processing Group/Rice University
× MADai

In langwierigen Untersuchungen stellten die amerikanischen Forscher fest, dass Modelle, die in einer Feedbackschleife ausschließlich mit synthetischen Daten gefüttert werden, schon nach wenigen Generationen "irreparabel beschädigt" sind. Diese Modelle erzeugen zunehmend verzerrte Bilder, die von generativen Artefakten durchsetzt sind und keine realistischen Darstellungen mehr anbieten können.

AI
© Getty
× AI

Eine zusätzliche Erschwerung stellen Verzerrungen durch menschliche Vorlieben in den Trainingsdaten dar. So würden Bilddatenbanken überproportional viele Blumen und lächelnde Menschen enthalten, was zu falschen Annahmen der KI-Modelle führt. Dies gipfle schließlich darin, dass die KI-Modelle keine realistische Bilder von weinenden Menschen oder anderen selteneren Szenarien mehr erstellen können.

Fehler im Artikel gefunden? Jetzt melden.
OE24 Logo
Es gibt neue Nachrichten