Es begann mit einer einfachen Anfrage:
Bitte zeig mir ein süßes Schweinchen, das auf einer Wiese spielt.
Eine Aufgabe, die DALL-E in ChatGPT normalerweise problemlos bewältigen sollte – dachte ich. Doch statt eines niedlichen Bildes bekam ich nur eines: eine Fehlermeldung.
„Bild kann nicht erstellt werden ... Richtlinien ... Content-Policy ...“ Ein Schweinchen? Problematisch? Das konnte doch nicht sein. Verwirrt versuchte ich es erneut, leicht abgewandelt, aber die KI blieb stur. Immer wieder die gleiche Meldung. Was war hier los?
Zunächst stellte ich alle möglichen Theorien auf. War „Schweinchen“ aus irgendeinem Grund ein sensibles Thema?
Religiöse Tabus? Schweine sind in einigen Kulturen ein Tabuthema. Vielleicht vermeidet die KI deshalb, sie darzustellen? Ich probierte es mit Kühen – ebenfalls ein Tier mit religiösem Hintergrund. Doch Kühe wurden problemlos generiert.
Ethische Gründe? Vielleicht will die KI Diskussionen um Schweinefleisch und Veganismus vermeiden? Aber auch andere Tiere wie Hühner oder Enten wurden ohne Probleme generiert.
Technisches Problem? Ein Fehler im System? Möglich, aber warum dann so spezifisch nur bei „Schweinchen“?
Nichts davon schien zu passen. Es musste etwas anderes sein. Aber was?
Verwirrt und immer neugieriger probierte ich weitere Varianten. Vielleicht lag es ja an der Formulierung? Also änderte ich das Wort „Schweinchen“ in andere Begriffe:
„Ein Ferkel auf einer Wiese.“ – Fehlermeldung.
„Ein süßes Ferkelchen im Blumenfeld.“ – Fehlermeldung.
„Ein Schweinlein bei einem Teich.“ – Fehlermeldung.
Doch bei anderen Szenarien funktionierte es plötzlich wieder:
„Ein Schwein mit einem Hund auf einer Farm.“ – Funktioniert.
„Ein Schwein, das in einer Hängematte liegt.“ – Kein Problem.
Langsam keimte ein Muster auf. Jedes Mal, wenn ich das Schwein in einer niedlichen, verkleinerten Form beschrieb, blockierte die KI. Der Unterschied war subtil, aber entscheidend. Der Durchbruch kam, als ich mir die genauen (englischsprachigen) Prompts anzeigen ließ, die die KI im Hintergrund verarbeitete.
Dabei entdeckte ich: „Schweinchen“ wurde automatisch ins Englische als „piglet“ übersetzt. Und plötzlich ergab alles Sinn.
„Piglet“ ist nicht nur das englische Wort für ein kleines Schwein, sondern auch der Name einer weltberühmten Figur aus Winnie the Pooh. Diese Figur gehört Disney, einem Unternehmen, das für seinen rigorosen Schutz von Markenrechten bekannt ist.
Die KI erkennt „piglet“ und denkt: „Achtung, urheberrechtlich geschützt!“ Um keine Konflikte zu riskieren, blockiert das System jede Anfrage, die diesen Begriff enthält – selbst wenn es nur um ein harmloses Ferkel auf einer Wiese geht.
Ersetzt du „piglet“ durch „pig“, funktioniert die Generierung einwandfrei. Doch genau dieser Schutzmechanismus der KI machte ein simples Wort wie „Schweinchen“ plötzlich zum Problem.
Interessanterweise gab es dieses Problem bei anderen Tools wie MidJourney nicht. Dort konnte ich problemlos Schweinchen generieren, egal ob als „piglet“ oder „pig“. Das zeigt, dass nicht alle KI-Systeme dieselben strengen Filter verwenden. MidJourney scheint hier entweder den Kontext besser zu berücksichtigen oder geht größere Risiken ein. Aber Vorsicht: Damit wird die Verantwortung auch stärker auf die mündigen Nutzer verschoben.
Dieses Beispiel zeigt, wie stark KI-Systeme wie DALL-E in ChatGPT durch ihre strengen Filter kreativ eingeschränkt werden können. Die Vorsicht mag berechtigt sein, doch sie führt dazu, dass harmlose Wünsche wie ein Schweinchen auf einer Wiese blockiert werden.
Was hältst du von dieser Schweinerei? Diskutiere mit uns auf Instagram (@kibuzzer) – wir sind gespannt auf deine Meinung! Ist die Vorsicht der KI gerechtfertigt, oder brauchen wir smartere Systeme, die den Kontext besser verstehen?
21. Januar 2025
KI-GoldrauschTrumps Mega-Plan: 500 Milliarden für KI15. Januar 2025
„Dritte Gehirnhälfte?“Maschmeyer über KI-Chancen15. Januar 2025
ChatGPT mit CanvasKreative Text-Leinwand8. Januar 2025
Fake oder Fortschritt?Maxi Raabe zu KI-Influencern6. Oktober 2024
KI-Sprache leicht gemacht!47 Begriffe für KI-Profis