
Wortherkunft: Zusammengesetztes Wort aus → KI (Abkürzung für „Künstliche Intelligenz“), generiert (Bezug auf Entstehungsprozess) und Bilder. Der Begriff bezeichnet durch KI-Modelle erzeugte visuelle → Inhalte.
Definition
KI‑generierte Bilder – kurz KI-Bilder – sind visuelle Darstellungen, die nicht durch klassische Fotografie, manuelle Grafikarbeit oder Gestaltungsprogramme am Computer entstehen, sondern von Bildgeneratoren erzeugt werden. Unter Bildgeneratoren werden „all jene generativen KI-Modelle verstanden, die Texte, Bilder oder eine Kombination der beiden Modalitäten als Eingabe verarbeiten und darauf basierend Bilder als Ausgabe erzeugen“ (BSI 2025: 7). Die Modelle basieren auf neuronalen Netzwerken wie z. B. Generative Adversarial Networks (GAN) oder Diffusionsmodellen und werden meist mit aus dem → Internet gesuchten – bzw. ‚gecrawlten‘ – Bilddatensätzen trainiert. Der erzeugte Bildinhalt ist das Ergebnis statistischer Mustererkennung (vgl. Mersch 2025: 298). Das Modell lernt, welche Pixel‑Konfigurationen zu welchen Formen, Farben und Texturen passen, und kombiniert dieses Wissen, um auf Basis von Eingaben wie etwa Text‑Prompts ein vollständiges Bild zu produzieren.
Der Begriff KI-Bilder umfasst alle Bild-Genres, von Malerei über Zeichnung und Comic bis hin zu Fotografie. Bei der Bildgenerierung durch das KI-Modell können bestimmte Genres als Bildstil ausgewählt werden. Eine Besonderheit stellen fotorealistische KI-Bilder dar, da sie in ihrer Darstellung den Charakter echter Fotografien nachbilden und von Betrachter:innen häufig auch als solche wahrgenommen werden (Koltermann 2025); sie werden auch als synthetische Fotografie bezeichnet (vgl. Geise 2025: 399). Ein Begriff, der im Zusammenhang mit KI-Bildern ebenfalls Verwendung findet, ist → Deepfake. Darunter werden in → manipulativer Absicht erstellte KI-Bilder – oder KI-generierte Videos – realer Personen verstanden (vgl. Lossau 2020: 2). Im öffentlichen Diskurs wird Deepfake häufig unscharf verwendet und fälschlicherweise als Synonym für KI-Bilder gebraucht.
Geschichte
Die Geschichte KI-generierter Bilder lässt sich bis in die 1960er Jahre zurückverfolgen, als erste Formen computergestützter Kunst entstanden. Pioniere wie Frieder Nake, Vera Molnár und später Harold Cohen mit seinem System AARON (ab 1973) nutzten regelbasierte Programme, um anfänglich vor allem abstrakte und später auch figurative Darstellungen mit Hilfe eines Computers zu erzeugen (Cohen 1995; Molnar 1990). Diese frühen Werke waren visuell stark stilisiert, von geringer Detailtiefe geprägt und entsprachen eher grafischen als realistischen Bildformen. Sie liefen auch nicht unter dem Begriff KI-Bild, sondern „Zeichnen“ und „Malen“ mit dem Computer oder „Computerkunst“ (vgl. Mersch 2025: 287).
In den 1990er- und frühen 2000er-Jahren wurden erste künstliche neuronale Netze (KNN) eingesetzt, etwa zur Bildrausch- und Kantenglättung, und bereiteten damit spätere Deep-Learning-Ansätze vor. KNN sind vom biologischen Nervensystem inspirierte Modelle, die durch Training statistische Muster in Daten erkennen. Ein wichtiger Entwicklungsschub folgte ab 2006 mit dem Aufstieg des Deep Learning, was das Training komplexer Netze praktikabel machte. Ein zentraler Durchbruch gelang 2014 mit den Generative Adversarial Networks (GANs) von Ian Goodfellow, bei denen ein sogenannter Generator und ein Diskriminator gemeinsam realistische Bilder erzeugen (vgl. Kindermann 2021). In den Folgejahren verbesserten GANs die Bildqualität deutlich, auch wenn frühe Ergebnisse noch Unschärfen und Verzerrungen aufwiesen.
Mit der Entwicklung von StyleGAN (ab 2018) erreichte die fotorealistische Bildsynthese ein neues Niveau, da hochauflösende und konsistente Porträts mit feinen Details wie Hautstruktur und Beleuchtung möglich wurden (vgl. Mersch 2025: 296). Parallel führte OpenAI mit DALL·E (2021) textbasierte Bildgenerierung ein, bei der komplexe semantische Konzepte visuell umgesetzt werden können. Einen weiteren Qualitätssprung markierten Diffusionsmodelle wie Stable Diffusion (2022), die Bilder schrittweise aus Rauschen erzeugen, also aus zufälligen Pixelwerten ohne erkennbare Struktur, und damit eine präzise Kontrolle über Stil und Komposition erlauben (vgl. Hunger 2025: 504). Die resultierenden Bilder sind in vielen Fällen qualitativ hochwertig und ohne KI-spezifische Fehler. Gleichzeitig wurde die Technologie durch Open-Source-Verfügbarkeit einer breiten Nutzerbasis zugänglich gemacht.
Gegenwärtiger Zustand
Die Entwicklung KI-generierter Bilder verläuft rasant. Eine Vielzahl von KI-Bildgeneratoren ist auf dem Markt, die in ihren Basis-Versionen kostenfrei zur Verfügung stehen, wie etwa Stable Diffusion. Des Weiteren ist die KI-Bildgenerierung in → KI-Chatbots wie etwa ChatGPT integriert worden. Die Bildqualität ist mittlerweile so hoch, dass fotorealistische KI-Bilder in der Regel nicht mehr eindeutig als künstlich erkannt werden (vgl. Frank 2024: 67). Angaben zum Anteil solcher Bilder in den Datenbanken von → Bildagenturen variieren stark: Eine deutsche Branchenumfrage nennt 1,8 Prozent (vgl. Bauernschmitt 2025: 12), während Brancheninsider für Plattformen wie Adobe Stock deutlich höhere Werte von bis zu 50 Prozent annehmen (vgl. Kneschke 2025). Die zunehmende Verbreitung fotorealistischer KI-Bilder und Deepfakes – auch über professionelle Bilddatenbanken – erhöht den Aufwand und die Bedeutung der Bildverifikation im Journalismus (vgl. Pörzgen 2022).
In Deutschland gelten KI-generierte Bilder laut Richtlinien des deutschen Presserats als → Symbolbilder und müssen entsprechend gekennzeichnet werden (vgl. Presserat 2024), während weitere Kennzeichnungsansätze – etwa Wasserzeichen oder Initiativen wie die Content Authority Initiative – diskutiert werden (vgl. Koltermann 2025). Gleichzeitig werden negative Auswirkungen auf die professionelle Fotografie erwartet, insbesondere eine teilweise Verdrängung der → Stockfotografie durch KI-Bilder. Was den Einsatz von KI-Bildern attraktiv macht, ist ihre schnelle Verfügbarkeit sowie die geringen Kosten. Gleichwohl veröffentlichen Bildredaktionen bislang nur in geringem Umfang KI-Bilder (vgl. dpa 2025: 14), vor allem wenn es um symbolische Illustrationen geht (vgl. ebd.: 7).
Die visuelle Nähe von KI-Bildern zu Fotografien sowie die Wiedererkennbarkeit bestehender Bildstile machen Fragen des → Urheberrechts sowie des Persönlichkeitsrechts virulent. Die Rechtslage in Deutschland sowie international ist bislang jedoch uneinheitlich und Gegenstand laufender juristischer Gerichtsverfahren. Umstritten ist insbesondere die Nutzung urheberrechtlich geschützter Werke als Trainingsdaten. Das deutsche Urheberrecht erlaubt unter bestimmen Bedingungen das Data-Mining für frei zugängliche Inhalte, aber es bestehen Einschränkungen durch Opt-Out-Regelungen der Rechteinhaber. KI-Bilder genießen keinen Urheberrechtsschutz, da es an menschlicher Schöpfung fehlt (fotoPro 2023).
Forschungsstand
Zu KI-Bildern wird aus verschiedenen Perspektiven geforscht. In der Informatik stehen sie seit Langem im Fokus, da die wissenschaftliche Entwicklung neuronaler Netze die Grundlage heutiger KI-Bildgeneratoren bildet. Aktuell konzentriert sich die IT-Forschung vor allem auf Verbesserungen der Modellarchitekturen und der Bildqualität sowie neue Trainingsmethoden. Des Weiteren wird zu Sicherheitsaspekten wie der Manipulation des Prompting-Prozesses oder Möglichkeiten zur Einschränkung der Generierung problematischer Bildinhalte geforscht (Qu 2023). Ein weiteres Thema sind Bias, die generative Bildmodelle aus den Trainingsdaten übernehmen und zum Teil sogar verstärken (Huang 2025).
In der bild- und medienwissenschaftlichen Forschung wird insbesondere die Epistemologie von KI-Bildern diskutiert. KI-Bilder werden hier meist nicht als komplett neues Phänomen, sondern als Fortführung der Entwicklung des digitalen Bildes gesehen (vgl. Bruhn 2025: 17). Für Hunger sind sie keine Reproduktionen, „sondern derivative Produkte, die auf statistischen Korrelationen beruhen“ (Hunger 2025: 509). Meier wertet die KI-Bildgenerierung als „eine weitere Technologie, die die freie Gestaltbarkeit von Bildern unabhängig von der extensionalen Welt vorantreibt“ (Meier 2025: 208). Und Lemmes konstatiert, dass für KI-Bilder ihre rein fiktionale Referenzialität ohne jede indexikalische Beziehung kennzeichnend sei (vgl. Lemmes 2025: 330).
Weitere Forschungsfelder sind die mediale Zirkulation von KI-Bildern und deren Inhalte. Stamboliev sieht ein „Risiko synthetischer Diskriminierung“, weil die Zirkulation von KI-Bildern zunehmend reale Bilder von Frauen verdrängt (Stamboliev 2025: 25). Eine Studie von Elhosary (2025) weist nach, dass KI-generierte → Nachrichtenbilder häufig systematische Verzerrungen enthalten, z. B. westliche Perspektiven, Geschlechterstereotype und Schönheitsideale. Eine Untersuchung von Thomson et al. (2024) zum Einsatz von generativer KI im visuellen Journalismus zeigt auf, dass diese vor allem bestehende Probleme wie Desinformation, → Objektivitätsdebatten und Arbeitsplatzunsicherheit verstärkt, wobei die größte Gefahr von wirtschaftlichen Entscheidungen der Medienhäuser ausgeht und nicht von der Technologie selbst.
Literatur
Bauernschmitt, Lars: Image Market – Business Trends 2025: Künstliche Intelligenz im redaktionellen Alltag von Bildagenturen. 2025. http://www.larsbauernschmitt.de/wp-content/uploads/2025/04/2025-Umfrage-Gesamtergebnisbericht-KI-im-redaktionellen-Alltag-von-Bildagenturen.pdf [26.03.2026].
Bruhn, Matthias: Generative Bilderströme. Über digitale Nach- und Vorbilder. In: Bruhn, Matthias; Katharina Weinstock (Hrsg.): Generativität (Begriffe des digitalen Bildes, 6). München [Open Publishing LMU] 2025, S. 67-78.
BSI: Generative KI-Modelle: Chancen und Risiken für Industrie und Behörden. 2025. https://www.bsi.bund.de/SharedDocs/Downloads/DE/BSI/KI/Generative_KI-Modelle.pdf?__blob=publicationFile&v=7 [26.03.2026]
Cohen, Harold: The further exploits of AARON, painter. In: Stanford Humanities Review, 4, 2, 1995.
dpa: KI und Bildpublizistik. 2025. http://www.larsbauernschmitt.de/wp-content/uploads/2025/04/dpa-picturealliance_KI-und-Bildpublizistik-2025.pdf [26.03.2026]
Elhosary, Menna: Pixels of Prejudice: Decoding Embedded Biases in AI-Generated News Imagery and Their Implications for Visual Journalism—Toward an Algorithmic-Mediated Visual Framing. In: Journalism & Mass Communication Quarterly 0, 0, 2025. https://doi.org/10.1177/10776990251360690.
fotoPro 2023: BFF Justiziarin Dorothe Lanc zu KI-Bildgeneratoren https://fotopro.world/news/branchen-ticker/bff-justiziarin-dorothe-lanc-zu-ki-bildgeneratoren/ [26.03.2026]
Frank, Joel; Franziska Herbert et al.: A Representative Study on Human Detection of Artificially Generated Media Across Countries. In: 45th IEEE Symposium on Security and Privacy, 20-22 May, 2024, San Francisco, CA, USA. Conference: SP IEEE Symposium on Security and Privacy. 2024.
Geise, Stefanie: Generative Imaginery: Potenziale und Herausforderungen KI-generierter Bilder in politischen Diskursen. In: Lemmes, Marcel; Stephan Packard; Klaus Sachs-Hombach (Hrsg.): Bilder im Aufbruch. Herausforderungen der Bildwissenschaft. Köln [Herbert von Halem Verlag] 2025.
Huang, Linus Ta-Lun; Tsung-Ren Huang: Generative bias: widespread, unexpected, and uninterpretable biases in generative models and their implications. In: AI & Soc. 2025. https://doi.org/10.1007/s00146-025-02533-1
Hunger, Francis: Derivate. Zum Reproduktionsbegriff synthetisch generierter Bilder. Kunstchronik, 78, 7, 2025, S.501-510. https://doi.org/10.11588/kc.2025.7.111292 [26.03.2026].
Kindermann, Jörg: Generative Adversarial Networks (GANs) für maschinelle Übersetzung. 2021. https://lamarr-institute.org/de/blog/generative-neuronale-modelle-gan/ [26.03.2026]
Kneschek, Robert: Adobe Stock unter Druck: Wie die KI-Bildflut zu neuen Upload-Limits und strengeren Richtlinien führt. 2025. https://www.alltageinesfotoproduzenten.de/2025/05/22/adobe-stock-unter-druck-wie-die-ki-bildflut-zu-neuen-upload-limits-und-strengeren-richtlinien-fuehrt/ [26.03.2026]
Koltermann, Felix: Fiktion oder Fakten? Was für eine Kennzeichnung fotorealistischer KI-Bilder spricht. In: Wissenschaftskommunikation.de. 2025. https://www.wissenschaftskommunikation.de/fiktion-oder-fakten-was-fuer-eine-kennzeichnung-fotorealistischer-ki-bilder-spricht-85055/ [26.03.2026]
Lemmes, Marcel: Beyond the Hyperreal: digitale Bilder und KI – Eine Herausforderung für die Bildsemiotik? In: Lemmes, Marcel; Stephan Packard; Klaus Sachs-Hombach (Hrsg.): Bilder im Aufbruch. Herausforderungen der Bildwissenschaft, Köln [Herbert von Halem Verlag] 2025, S. 320-350.
Lossau, Norbert: Deep Fake: Gefahren, Herausforderungen und Lösungswege. In: Analysen &Argumente, 382, 2020. https://www.kas.de/documents/252038/7995358/AA382+Deep+Fake.pdf/de479a86-ee42-2a9a-e038-e18c208b93ac [26.03.2026]
Meier, Stefan: „Es war einmal auf dem Rittersturz…!“ Digitales Storytelling als didaktisches Konzept multimodaler Kohärenzstiftung, illustriert an einem Beispiel aus der deutschen Verfassungsgeschichte. In: Lemmes, Marcel; Stephan Packard; Klaus Sachs-Hombach (Hrsg.): Bilder im Aufbruch. Herausforderungen der Bildwissenschaft, Köln [Herbert von Halem Verlag] 2025, S. 207-238.
Mersch, Dieter: Künstliche Intelligenz, Kreativität und Zufall. In: Lemmes, Marcel; Stephan Packard; Klaus Sachs-Hombach (Hrsg.): Bilder im Aufbruch. Herausforderungen der Bildwissenschaft, Köln [Herbert von Halem Verlag] 2025, S. 284-319.
Molnár, Vera: Toward aesthetic guidelines for painting with the aid of a computer. In: Leonardo, 23, 1, 1990, S. 5-9.
Pörzgen, Gemma: Auf zum Faktencheck. In: ReVue. 2022. https://www.re-vue.org/beitrag/bild-in-zeit-gemma-poerzgen-auf-zum-faktencheck [26.03.2026]
Presserat: Redaktionen auch für KI-generierte Inhalte ethisch verantwortlich. 18.09.2024. https://www.presserat.de/presse-nachrichten-details/redaktionen-auch-fuer-ki-generierte-inhalte-ethisch-verantwortlich.html [26.03.2026]
Thomson, T.J.; Ryan J. Thomas; Phoebe Matich: Generative Visual AI in News Organizations: Challenges, Opportunities, Perceptions, and Policies. In: Digital Journalism, 13, 10, 2024, S. 1693-1714. https://doi.org/10.1080/21670811.2024.2331769
Stamboliev, Eugenia: Mehr Bilder, weniger Präsenz: Wie generative KI die Sichtbarkeit von Frauen* in der Gesellschaft minimiert. In: Österreichische UNESCO-Kommission (Hrsg.): Künstliche Intelligenz verantwortungsvoll gestalten: ethische Rahmenbedingungen und Chancengerechtigkeit in demokratischen Gesellschaften. Wien [Österreichische UNESCO-Kommission] 2025. https://doi.org/10.5281/zenodo.15528167
Qu, Yiting et al.: Unsafe Diffusion: On the Generation of Unsafe Images and Hateful Memes From Text-To-Image Models. In: CCS ’23: Proceedings of the 2023 ACM SIGSAC Conference on Computer and Communications Security, 2023, S. 3403-3417. https://doi.org/10.1145/3576915.3616679


