OpenAI überdenkt Zensurpolitik! Neuer ChatGPT-Bildgenerator sorgt für Furore
Diese Woche hat OpenAI einen neuen Bildgenerator in ChatGPT eingeführt, der durch seine Fähigkeit zur Erstellung von Studio-Ghibli-ähnlichen Bildern Aufsehen erregt. Der auf GPT-4o basierende Generator zeigt deutliche Verbesserungen bei Bildbearbeitung, Textrendering und räumlicher Darstellung.
Besonders bemerkenswert ist jedoch die grundlegende Änderung der Content-Moderationsrichtlinien. Die neue Politik erlaubt ChatGPT die Generierung von Bildern mit öffentlichen Persönlichkeiten, Hasssymbolen und ethnischen Merkmalen auf Nutzeranfrage - ein deutlicher Kontrast zur bisherigen streng restriktiven Praxis.
Joanne Jang, Leiterin der Modellverhaltensforschung bei OpenAI, betont den Wechsel von einer “pauschalen Ablehnung” zu einem “differenzierteren Ansatz”, der reale Schäden verhindern soll. Diese Änderung wird als Teil einer größeren Initiative zur Lockerung der ChatGPT-Zensur gesehen, die mehr Anfragen und diverse Perspektiven ermöglichen soll.
Gemäß den neuen Richtlinien kann ChatGPT nun Bilder von Persönlichkeiten wie Trump und Musk generieren. OpenAI betont, nicht als “Schiedsrichter” über generierbare Personen zu agieren, und bietet Nutzern Opt-out-Mechanismen an. In Bildungskontexten sind sogar bestimmte Hasssymbole zulässig, solange keine extremistischer Unterstützung erfolgt.
Trotz der Lockerungen implementiert GPT-4o strengere Sicherheitsvorkehrungen für Kinderbilder. Dieser Politikwandel erfolgt vor dem Hintergrund anhaltender Kritik konservativer Kreise an KI-“Zensur”. Googles Gemini-Bildgenerator war zuvor bereits wegen ungenauer historischer Darstellungen in die Kritik geraten.
Republikaner Jim Jordan hat bereits Anfragen zu KI-Moderation an Tech-Unternehmen gestellt. OpenAI bestreitet politische Motive und verweist auf “langjährige Überzeugungen zur Nutzerkontrolle” und verbesserte Technologiereife.
Angesichts bevorstehender Regulierung erscheint der Zeitpunkt der Änderung strategisch. Ähnliche Plattformstrategien bei Meta und X könnten weitreichende Auswirkungen auf den Umgang mit sensiblen Inhalten haben.