TL;DR
GPT Image 2 ist ein im Jahr 2026 veröffentlichtes Tool zur KI-Bildgenerierung, das auf den beiden Modellen gpt-image-2-text-to-image und gpt-image-2-image-to-image der KIE-Plattform basiert und Textbeschreibungen oder Referenzbilder in Bilder in Fotoqualität umwandeln kann. Es gilt ein einheitlicher Preis von 12 Punkten pro Bild, wobei die Eingabezeile maximal 20.000 Zeichen lang sein darf. Das Tool wurde speziell für Kreative entwickelt, die professionelle Bildqualität wünschen, sich aber nicht mit ComfyUI herumschlagen und ihr Budget nicht durch Abonnements belasten wollen. GPT Image 2 kostenlos testen →

Was ist GPT Image 2 eigentlich?
GPT Image 2 ist ein Produkt zur KI-gestützten Bildgenerierung, das Beschreibungen in natürlicher Sprache, Referenzfotos oder eine Kombination aus beidem in fertige Bilder umwandelt. Hinter dem Produkt stehen zwei von KIE gehostete Modelle: gpt-image-2-text-to-image ist für die Umwandlung von reinem Text in Bilder zuständig, während gpt-image-2-image-to-image für Szenarien verwendet wird, in denen ein vorhandenes Bild als Ausgangspunkt für Änderungen dient. Beide Modelle werden über denselben Webzugang bereitgestellt und decken die beiden häufigsten Anforderungen von Designern, Marketingfachleuten und Influencern ab: Ideen in Bilder umzusetzen oder vorhandene Bilder kontrolliert zu bearbeiten.
Man kann es als direkten Nachfolger des „GPT-ähnlichen Bild-Workflows“ betrachten, der mit DALL-E 3 und der Bildgenerierung durch GPT-4o eingeleitet wurde, doch es zielt auf ein ganz konkretes Problem im Jahr 2026 ab: Kleine Teams benötigen Bilder, die wie in einem professionellen Fotostudio entstanden wirken, die innerhalb von Sekunden verfügbar sind und die am Monatsende in die Kostenrechnung passen. GPT Image 2 löst diese drei Probleme auf einen Schlag. Unabhängig von Auflösung und Seitenverhältnis macht die einheitliche Preisgestaltung von 12 Punkten pro Bild die Kostenkalkulation extrem einfach; die Prompt-Kapazität von 20.000 Zeichen bedeutet, dass selbst die längsten und strukturiertesten Kreativ-Briefings unverändert eingegeben werden können, ohne dass wichtige kreative Aspekte gestrichen werden müssen, nur um die Zeichenanzahl zu erreichen.
Der Name selbst spiegelt den Reifeprozess dieser gesamten Kategorie wider. Die erste Generation der „GPT-basierten Bildgeneratoren“ war eher experimenteller Natur, wobei die Qualität der Ergebnisse zwischen befremdlich und atemberaubend schwankte. GPT Image 2 repräsentiert den Basisstandard des Jahres 2026: stabile Bildqualität auf Foto-Niveau, ansprechende Darstellung von Text innerhalb der Bilder sowie eine dialogorientierte Eingabeerfahrung, die sich eher wie eine „Kommunikation mit einem Partner“ anfühlt als wie das „Drehen an einem Spielautomaten“. Dies ist keine Vorschauversion, sondern ein Generator, der direkt in die Produktion eingesetzt werden kann. Zusammen mit unserer gesamten Produktreihe an KI-Bildtools – Bild-Prompt-Generator, separate Text-zu-Bild-Seite, Bild-zu-Bild-Editor – bildet es einen vollständigen Kreislauf, der es Ihnen ermöglicht, je nach Art der Aufgabe den am besten geeigneten Einstieg zu wählen.
Wer hat das gebaut, und wo steht das Modell?
Das Generierungsmodell selbst wird von KIE bereitgestellt, einer Modell-Hosting-Plattform, die die Modellreihe gpt-image-2 über eine gehostete API nach außen verfügbar macht. Wir haben diese APIs um eine Weboberfläche, eine Guthaben-Wallet, einen Prompt-Verlauf und ein Kontosystem erweitert. Diese Arbeitsteilung ist entscheidend: Die Bildqualität und der Stil, die Sie sehen, basieren auf der Umsetzung durch KIE, während die Generierungsgeschwindigkeit, die Verfügbarkeit und das Produkterlebnis unser Versprechen sind. Wenn also jemand fragt: „Was ist GPT Image 2?“, lautet die kürzeste Antwort: KIE liefert die Modelle, wir liefern das Produkt.
Bis April 2026 sind die beiden oben genannten Endpunkte die einzigen generativen Modi, die in der Benutzeroberfläche öffentlich zugänglich sind. Wir haben weder eine separate Schaltfläche für „Hochauflösung“ noch einen Reiter für „Batch-Varianten“ oder einen eigenständigen Pinsel für „lokales Neuzurzeichnen“ – Letzteres wurde tatsächlich durch den Befehl „Bild generieren und Text hinzufügen“ ersetzt. Die Beibehaltung dieser minimalistischen Produktoberfläche ist bewusst gewählt. Viele Bildbearbeitungsprogramme sind mit acht bis zehn Funktionsschaltflächen überladen, von denen die meisten kaum genutzt werden; durch deren Weglassen können die wahren Stärken des Modells – das Verständnis von Prompts und die fotorealistische Qualität – das gesamte Produkterlebnis tragen.
Warum reichen die beiden Modi „Text-zu-Bild“ und „Bild-zu-Bild“ aus?
Jede kreative Aufgabe lässt sich letztendlich auf eine von zwei Fragen zurückführen: Entweder „Erstelle mir ein Bild von X“ oder „Passe dieses Bild in Richtung Y an“. Text-to-Image löst das erste Problem: Man beschreibt, was man möchte, klickt auf „Generieren“ und erhält ein Bild, das zuvor nicht existierte. „Bild-zu-Bild“ löst das zweite Problem: Du lädst ein Bild hoch und gibst dem Modell per Text an, den Hintergrund zu ändern, die Beleuchtung anzupassen, Produkte auf dem Tisch hinzuzufügen oder die Skizze in ein Ölgemälde umzuwandeln – und es liefert dir eine Variante, die die Struktur des Originalbildes beibehält. In Kombination mit einem Prompt-Feld von 20.000 Zeichen decken diese beiden Modi die überwiegende Mehrheit der Anwendungsfälle ab, darunter die Bearbeitung von Illustrationen, Marketingkonzepte, Produktvisualisierungen, Videocover und Konzeptdesigns. Der Rest ist eine Frage der Übung.
Wie GPT Image 2 funktioniert
Aus Sicht des Nutzers ist das Erzeugen eines Bildes nichts weiter als die Eingabe eines Prompts und ein Klick auf eine Schaltfläche. Aus Sicht der Entwickler jedoch vollführt das System in den wenigen Sekunden zwischen dem Klicken auf die Schaltfläche und der Darstellung des Bildes eine ganze Reihe von Vorgängen. GPT Image 2 nutzt ein modernes diffusionsbasiertes Bildmodell – genau wie Midjourney, Stable Diffusion 3 und DALL-E 3 – doch sein Text-Encoder und seine Trainingsstrategie sind speziell auf lange und konkrete Prompts optimiert. Der Unterschied, der sich auf dem Bild am deutlichsten bemerkbar macht, ist die „Befolgungsgenauigkeit“ der Anweisungen. Frühere Modelle haben bei einem 500-Wort-Prompt die Details gleichmäßig verteilt, während gpt-image-2 den Prompt als eine Spezifikation betrachtet, die genauestens umgesetzt werden muss.
Das Prinzip des Diffusionsmodells besteht darin, den „umgekehrten Prozess der Rauschaddition“ zu erlernen. Während des Trainings wird das Originalbild wiederholt mit zufälligem Rauschen versehen, bis es nicht mehr von reinem Rauschen zu unterscheiden ist; das Netzwerk lernt dabei, das Rauschen Schritt für Schritt zu entfernen, wobei es sich an der Textbeschreibung orientiert. Bei der Generierung läuft der Prozess umgekehrt ab: Ausgehend von reinem Rauschen wird der Rauschentfernungsvorgang durch die Eingabeaufforderung so gesteuert, dass er zu einem plausiblen Bild konvergiert, das mit dem Text übereinstimmt. Mathematische Details finden Sie im Wikipedia-Eintrag zu Diffusionsmodellen . und für einen Einblick in die technischen Ansätze zur Textausrichtung den offiziellen DALL-E 3-Technikbericht von OpenAI lesen. Beide Artikel bilden die theoretische Grundlage für die Bildmodelle dieser Generation.
Der größte Unterschied zwischen gpt-image-2 und herkömmlichen Diffusionsmodellen liegt in seinem Prompt-Encoder. Das alte System verwendete einen einfachen CLIP-Text-Encoder, der zwar den allgemeinen Sinn gut erfasste, bei Details wie Reihenfolge, Anzahl und räumlichen Beziehungen jedoch häufig versagte. gpt-image-2 nutzt einen Encoder im Umfang eines Sprachmodells, der Sätze mit räumlichen Vorgaben wie „Drei Kaffeetassen auf der linken Seite des Bildes, rechts ein rotes Notizbuch, durch das Fenster im Hintergrund fällt warmes Morgenlicht“ verstehen kann. Die tatsächlichen Ergebnisse bestätigen dies: Die Genauigkeit bei der räumlichen Anordnung, der Anzahl der Objekte und der im Bild eingebetteten Texte (wie z. B. „Auf dem Schild steht ‚OPEN‘“) ist deutlich höher als noch vor zwei Jahren.

„Tu Sheng Tu“ schlägt einen anderen Weg ein
Die Text-zu-Bild-Funktion beginnt mit reinem Rauschen, die Bild-zu-Bild-Funktion mit dem von Ihnen hochgeladenen Foto. Das Modell fügt dem Originalbild einen Teil Rauschen hinzu – in der Regel mit einem Grad der Verzerrung von 30 % bis 70 % – und entfernt dieses dann anhand der Eingabeaufforderung. Die Ausgabe wird über zwei Regler gesteuert: Bei geringem Rauschen bleibt das Originalbild nahezu erhalten, was sich gut für die Retusche von Porträts oder die Feinabstimmung von Farbtönen eignet; bei hohem Rauschen wird das Originalbild stark verändert, wobei die Eingabeaufforderung die neue Struktur bestimmt, was sich gut für Stilübertragungen oder die Umwandlung von Skizzen in Ölgemälde eignet.
GPT Image 2 verbirgt diese beiden Regler in der Sprache der Eingabeaufforderung. Wenn du sagst: „Das Gesicht soll unverändert bleiben, nur der Hintergrund soll durch eine regnerische Straße in Tokio bei Nacht ersetzt werden“, wird ein niedriges Rauschen verwendet; wenn du sagst: „Als impressionistisches Ölgemälde neu zeichnen“, wird auf ein hohes Rauschen umgeschaltet. Die Fähigkeit des Modells, Absichten zu verstehen, ist die Voraussetzung dafür, dass die Benutzeroberfläche so übersichtlich bleiben kann – dieselbe API-Schnittstelle führt je nach deiner Eingabe völlig unterschiedliche Aufgaben aus.
Warum dauert die Generierung so lange?
Die Ausgabe eines Bildes dauert in der Regel 4 bis 15 Sekunden. Die Inferenz des Diffusionsmodells erfordert 20 bis 50 Schritte zur Rauschunterdrückung, wobei bei jedem Schritt ein Netzwerk mit mehreren Milliarden Parametern durchlaufen wird. Ein einzelner Schritt dauert auf modernen Beschleunigern nur wenige Millisekunden; die Gesamtlaufzeit wird hauptsächlich durch Warteschlangen, Netzwerk-Roundtrips und die erste Durchlaufphase des Text-Encoders beansprucht. Auf Produktebene lässt sich dieser Teil nicht optimieren, aber er erklärt, warum die Generierung gelegentlich etwas langsamer ist – dies fällt fast immer mit Spitzenauslastungen im KIE-Inferenzcluster zusammen und hat nichts mit Ihnen zu tun.
Kernkompetenzen und echte Alleinstellungsmerkmale
In den letzten Monaten habe ich mit gpt-image-2 mehrere tausend Bilder erstellt, darunter Material für Präsentationen, Blog-Titelbilder, Produktprototypen und Vorschaubilder für soziale Medien. Drei Funktionen heben es deutlich von den üblichen Tools der Generation 2024 ab.
Der erste Punkt ist die Umsetzungsfähigkeit bei langen Briefs. Wenn man einen 600 Wörter langen kreativen Brief einfügt – mit Angaben zu Szenerie, Hauptfigur, Kleidung, Beleuchtung, Kameraeinstellung und Stimmung –, kann das Modell bereits beim ersten Durchlauf die meisten wesentlichen Punkte wiedergeben. Vor 18 Monaten war das noch nicht möglich. Bei einem Brief dieser Länge würde DALL-E 3 den Fokus verlieren, und Stable Diffusion 1.5 würde anfangen, sich Dinge auszudenken. GPT Image 2 behandelt den Brief wie ein Lastenheft; selbst wenn gelegentlich ein Detail übersehen wird, besteht die übliche Korrektur darin, diesen Punkt weiter nach vorne zu verschieben oder ihn fett zu markieren – eine vollständige Neugestaltung des gesamten Textes ist in der Regel nicht erforderlich.
Der zweite Punkt ist fotorealistischer Realismus und saubere Glanzlichter. Das Merkmal, an dem sich die KI-Bilder der Generation von 2022 am leichtesten erkennen lassen, ist eine künstlich wirkende Haut und falsch platzierte Spiegelreflexe. gpt-image-2 kann die suboberflächliche Streuung der Haut, die sanfte Ausblendung von Softboxen sowie die chromatische Aberration von Objektiven mit großer Blende korrekt verarbeiten – das Ergebnis lässt sich von einem Laien kaum auf den ersten Blick als KI-Bild erkennen. Es ist nicht perfekt. Bei etwa einem von fünfzehn Bildern gibt es Probleme mit den Händen, und bei Nahaufnahmen von mechanischen Uhren kann es vorkommen, dass die Zahnräder seltsam angeordnet sind. Aber insgesamt vermittelt das Ergebnis bereits den Eindruck einer „Studioaufnahme“.
Der dritte Punkt ist die Darstellung von Text in Bildern. Bei der ersten Generation der Diffusionsmodelle war es fast ein Wunschtraum, in einem Bild einen lesbaren Text zu erhalten. GPT Image 2 liefert bei kurzen Texten recht zuverlässige Ergebnisse: Straßenschilder, Etiketten, Buchcover, Markennamen, Datumsangaben, kurze Slogans und numerische Beschriftungen werden konsistent wiedergegeben. Längere Textabschnitte werden jedoch nach wie vor zu lateinähnlichem Kauderwelsch verzerrt; man sollte das Modell daher nicht zur Erzeugung ganzer Seiten mit Fließtext verwenden, doch ein Titel mit drei bis vier Wörtern auf einem Plakat ist kein Problem mehr.

Wie ist die stilistische Bandbreite?
Die meisten Vergleichstests lassen die stilistische Bandbreite außer Acht, doch genau hier liegt der entscheidende Unterschied bei GPT Image 2. Filmfotografie, redaktionelle Illustrationen, flache Vektorgrafiken, 3D-Produktrenderings, Ölgemälde, Aquarelle, Anime-Stil, Pixelkunst, technische Schemazeichnungen – all diese Stile kann das Modell umsetzen, ohne dass eine Vielzahl von Stil-Tokens übereinandergeschichtet werden muss. Beschreibt man den ästhetischen Effekt in einfachen Worten, zum Beispiel „Aquarell auf kaltgepresstem Papier mit sichtbaren Bleistift-Grundlinien“, liefert es das entsprechende Bild. Im Vergleich zu Midjourney, das sich auf Referenzcodes stützt, um ein ganzes Subkultur-Ökosystem zu bilden, ist die Erfahrung hier kontrastreich schlicht: Man sagt einfach, was man will.
Die Vorteile von Seitenverhältnis, Auflösung und einheitlichen Preisen
Hier wurde eine klare Entscheidung getroffen: GPT Image 2 verlangt weder einen Aufpreis, wenn Sie sich für 4K entscheiden, noch für das Hochformat. Jedes Bild kostet 12 Punkte, ohne Ausnahme. Das klingt vielleicht nach Marketing-Rhetorik, wird aber tatsächlich Ihre Arbeitsweise verändern. Sie werden aufhören, Ihre Prompts immer wieder zu komprimieren, um Punkte zu sparen, und stattdessen frei generieren – 80 % verwerfen und die 20 % behalten, die Sie wirklich beeindrucken. Über den gesamten Monat hinweg führt diese veränderte Denkweise zu einer Produktivitätssteigerung, die Ihnen Tools mit variabler Abrechnung nicht bieten können.
Was es nicht tut
GPT Image 2 generiert nur statische Bilder und ist kein Animationswerkzeug. Um Bilder in Bewegung zu versetzen, muss man es mit Text-zu-Video- oder Bild-zu-Video-Modellen kombinieren. Es ist auch kein Vektorgenerator; die Ausgabe erfolgt als rasterbasierte WebP-/PNG-Dateien; für Logos muss man weiterhin Illustrator verwenden. Es ist auch kein prozeduraler Editor, der es ermöglicht, wie bei Photoshop Generative Fill einzelne Bereiche auszuwählen und separat neu zu generieren – die nächstliegende Alternative ist die Bildgenerierung anhand beschreibender Prompts, was in den meisten Fällen ausreicht.
Für wen eignet sich GPT Image 2 am besten?
Der schnellste Weg, um festzustellen, ob ein Tool für Sie geeignet ist, besteht darin, zu prüfen, ob es auf Sie zutrifft. Im letzten Quartal sind mir in den Nutzerdaten und Interviews immer wieder die folgenden fünf Personengruppen aufgefallen.
Ein-Mann-Marketing in einem SaaS-Unternehmen mit 5 bis 50 Mitarbeitern. Diese Person schreibt Blogbeiträge, versendet Newsletter, wählt Originalbilder aus und erstellt jede einzelne Grafik für soziale Medien. Das Unternehmen hat keinen festangestellten Designer und auch keine Zeit, für einen einzigen Blogbeitrag einen externen Dienstleister zu beauftragen. Er benötigt jede Woche 20 Grafiken im einheitlichen Stil, die jeweils innerhalb von 10 Minuten fertiggestellt sein müssen und so aussehen sollen, als stammten sie aus demselben redaktionellen Universum. GPT Image 2 passt fast perfekt zu diesem Profil: Dank des Pauschalpreises kann er 200 Bilder pro Monat erstellen, von denen er nur 50 ausgewählte Perlen behält, ohne dass die Finanzabteilung bei der Abrechnung auch nur mit der Wimper zuckt.
Unabhängige Spieleentwickler oder App-Entwickler. Diese Personen benötigen in der Vorbereitungsphase Konzeptzeichnungen für Helden, Kartenbilder, Icon-Entwürfe und Referenzmaterial. In der Regel fügen sie die von der KI erstellten Bilder nicht direkt in das Spiel ein, sondern nutzen sie als visuelle Vorlage, die anschließend von menschlichen Grafikern weiter ausgearbeitet wird. Eine 20.000 Zeichen lange Prompt-Beschreibung ist für ihn ein Segen, da Spiel-Design-Briefings ohnehin schon lang sind – Weltbild, Stimmung, Farbpalette werden alle eingefügt, generiert und iteriert.
Content-Ersteller auf YouTube, TikTok und Substack. Sie benötigen Thumbnails, die ins Auge fallen und schnell angepasst werden können, denn die Rückkopplungsschleife besteht aus den Backend-Daten der Plattform. Eine „Cover-Fabrik“, die ihnen innerhalb einer halben Stunde 30 verschiedene Thumbnail-Varianten liefert, aus denen sie drei auswählen können – genau dafür eignet sich Text-to-Image am besten.

Pädagogen oder Autoren technischer Dokumentationen. Das Auftauchen dieser Gruppe kam etwas überraschend. Lehrer, Kursentwickler und Dokumentationsautoren machen einen immer größeren Teil der Nutzer aus; sie benötigen Schemazeichnungen, Visualisierungen abstrakter Konzepte sowie gelegentlich Titelbilder für ihre Präsentationen. Die Kontrolle über den Text und die strukturierte Komposition innerhalb der Bilder ist hier besonders nützlich – ein klar beschriftetes Schema des Wasserkreislaufs, eine stilisierte Illustration eines neuronalen Netzwerks, ein fröhliches Titelbild für die dritte Woche eines Python-Kurses. Da die Eingabeaufforderungen sehr lang sein können, können sie den Lehrinhalt selbst in die Eingabeaufforderung einbetten, wodurch das Ergebnis näher an der Realität liegt und nicht nur ein allgemeiner „Tech-Look“ entsteht.
Freiberufliche Designer oder Kreativteams in Werbeagenturen. Profis nutzen es als „Moodboard-Beschleuniger“: Anstatt einen ganzen Nachmittag auf Pinterest nach Inspiration zu suchen, lassen sie sich in derselben Zeit 40 verschiedene Ansätze generieren, wählen die drei besten als Ausgangspunkt aus und arbeiten das Endergebnis dann manuell aus. Bei einem Limit von 12 Punkten pro Entwurf kostet die Projekt-Explorationsphase weniger als ein Essen mit dem Kunden.
Für wen ist es nicht geeignet?
Wenn Sie bestimmte Bereiche eines Bildes pixelgenau bearbeiten müssen – etwa im Rahmen eines „Photoshop Generative Fill“-Workflows, bei dem mit Pinsel und Masken fein gearbeitet wird –, ist GPT Image 2 nicht die beste Wahl. Auch für vektorbasierte Ausgaben in Logo-Qualität ist es nicht geeignet. Wenn Sie den Generator offline oder in einem lokalen Intranet betreiben möchten, steht Ihnen bis April 2026 nur die gehostete API-Lösung von KIE zur Verfügung; eine selbst gehostete Option gibt es nicht. Wenn Ihr Workflow darauf abzielt, die Konsistenz eines Charakters über Dutzende von Comic-Panels hinweg zu gewährleisten, sind spezielle Tools für die Charakterkonsistenz nach wie vor einem universellen Generator vorzuziehen.
Preise, Einstieg und erste Schritte
Die Preisgestaltung ist sehr moderat: 12 Punkte pro Bild. Es gibt keine Aufschläge für die Auflösung, keine Preisaufschläge für Hoch- oder Querformat und keinen „Premium“-Button, der die Rechnung heimlich verdoppelt. Sie kaufen Punkte, geben 12 Punkte pro Bild aus und sehen auf einen Blick, wie viel Ihnen noch in der Kasse bleibt. Der Vergleich mit herkömmlichen Bildarchiven ist ganz einfach: Die Lizenzgebühr für ein hochwertiges Bild auf einer gängigen Bildarchiv-Website entspricht in etwa den Kosten für die Erstellung von 15 bis 80 Bildern hier, und Sie erhalten nicht einmal wirklich exklusive Rechte.
Der Einstieg dauert keine zwei Minuten. Gehen Sie auf Startseite, registrieren Sie sich – die Anmeldung erfolgt direkt über den Generator selbst. Geben Sie einen Prompt in das Eingabefeld ein oder laden Sie zunächst ein Referenzbild hoch, um ein Bild zu erstellen, und klicken Sie dann auf „Generieren“. Das Ergebnis wird direkt inline angezeigt und automatisch im Verlauf Ihres Kontos gespeichert. Standardmäßig wird das Bild im WebP-Format heruntergeladen; mit einem Rechtsklick erhältst du das Originalbild in voller Auflösung. Du musst keine Desktop-Anwendung installieren, keine Plugins sideloaden und keiner Discord-Gruppe beitreten. Ein Browser reicht völlig aus, und dein Gerät muss lediglich moderne GPU-Rendering-Funktionen unterstützen (im Grunde genommen sind alle Geräte ab 2019 kompatibel).
Wenn Sie mehrere Generierungen zu einem größeren kreativen Projekt verknüpfen möchten – beispielsweise um eine Reihe stilistisch einheitlicher Illustrationen für eine Blogserie zu erstellen –, empfiehlt es sich, zunächst im Bild-Prompt-Generator eine Beschreibung der Charaktere oder des Stils zu verfassen und diese Beschreibung dann in den Hauptgenerator einzufügen, um sie wiederholt zu iterieren. Diesen Arbeitsablauf haben wir in den Anleitungen zur Verwendung von GPT Image 2 und im Leitfaden zu GPT Image 2-Prompts genauer aufgeschlüsselt. Letzterer konzentriert sich darauf, welche Strukturen und Modifikatoren das Modell zuverlässig in die von Ihnen gewünschte Richtung lenken.
Wie werden die Punkte eigentlich eingelöst?
Die Punkte werden in dem Moment abgezogen, in dem die Ausgabe generiert wird, nicht bei der Übermittlung des Stichworts. Sollte die Generierung aufgrund einer vorübergehenden Störung im Backend fehlschlagen, werden die Punkte automatisch zurückerstattet; sollte die Generierung erfolgreich sein, das Ergebnis Ihnen jedoch nicht gefallen, wird dies als eine Nutzung gewertet – das Modell hat seine Arbeit schließlich erledigt. In der Praxis ist die Trefferquote hoch genug, sodass diese Regel nicht als ungerecht empfunden wird. Bei meinen täglichen Marketinggrafiken muss ich etwa alle vier Eingaben eine Neugenerierung vornehmen; 12 Punkte pro Vorgang sind daher keineswegs eine Summe, die am Monatsende für Stirnrunzeln sorgt.
Kommerzielle Nutzung und Urheberrecht
Bis April 2026 sind die von Nutzern der kostenpflichtigen Version erstellten Bilder für die kommerzielle Nutzung zugelassen. Allerdings ist die Rechtslage bezüglich des Urheberrechts an KI-Bildern in einigen Rechtsordnungen noch nicht endgültig geklärt – die aktuellen Leitlinien des US-amerikanischen Copyright Office betrachten reine KI-Ausgaben als nicht urheberrechtlich geschützt, da ihnen menschliche Kreativität fehle. Für die meisten Marketing- und redaktionellen Zwecke spielt dies keine Rolle, doch wenn Sie ein Logo oder eine Marke erstellen möchten, sollten Sie einen Anwalt konsultieren und die endgültige Umsetzung von einem menschlichen Designer vornehmen lassen. Die AI-Themenseite des US-amerikanischen Copyright Office verfolgt die aktuellen Entwicklungen der Richtlinien und ist es wert, zu den Lesezeichen hinzugefügt zu werden.
Einschränkungen und Schwächen: Was kann es nicht gut?
Liebe Leser, die Sie bis hierher gelesen haben: Es ist an der Zeit für eine ehrliche Bestandsaufnahme. Kein Bildmodell ist perfekt, und so zu tun, als sei es perfekt, bedeutet, eine Zeitbombe für die Deadline in zwei Wochen zu legen – wenn das Modell plötzlich den Geist aufgibt, müssen Sie hinterher die Scherben aufräumen. Im Folgenden stelle ich einige typische Szenarien vor, in denen GPT Image 2 meiner Erfahrung nach versagen kann.
Handdarstellungen und kleine Körperteile. Die Modelle sind deutlich besser als die der Generation von 2024, doch bei Nahaufnahmen der Hände treten immer noch etwa alle zehn bis fünfzehn Bilder Probleme auf: Finger kleben zusammen, es gibt einen sechsten Finger oder der Daumen ist falsch gebogen. Wenn die Hand nur ein Detail im Hintergrund ist, fällt das niemandem auf; wenn es sich jedoch um ein Hauptmotiv handelt, bei dem die Handfläche zur Kamera zeigt, muss man die Szene mehrmals neu generieren. Ein sehr praktischer Trick, um dies zu vermeiden, besteht darin, in der Prompt-Anweisung direkt „Keine Hände im Bild“ oder „Beide Hände hängen natürlich herab“ anzugeben; das Modell umgeht das Problem dann in der Regel elegant.
Längere Textabschnitte im Bild. Kurze Sätze sind kein Problem, ebenso wenig wie Schilder, Etiketten oder Magazincover mit nur wenigen Wörtern. Bei ganzen Textabschnitten sieht es jedoch ganz anders aus. Wenn Sie ein „Screenshot einer E-Mail“ wünschen, formatieren Sie den Text bitte in Ihrem Design-Tool und fügen Sie ihn anschließend ein – verlassen Sie sich nicht darauf, dass das Modell den Fließtext für Sie generiert.
Bei Verwendung eines einzigen Referenzbildes ist die Identität vollkommen identisch. „Bild generieren“ bewahrt zwar die groben Merkmale des Motivs, ist jedoch kein Klonprogramm für Gesichter. Wenn Sie möchten, dass „genau dieselbe Person“ auf 20 Bildern erscheint, kommt es bereits beim fünften oder sechsten Bild zu leichten Abweichungen in der Identität. Die Lösung hierfür ist ein Workflow mit mehreren Referenzbildern; dieser Bereich entwickelt sich rasant weiter und wird in einem separaten Artikel ausführlich behandelt. Für kleine Kampagnen, die aus einem Hauptbild und einigen ergänzenden Bildern bestehen, ist die Bildgenerierung völlig ausreichend.

Inhaltsrichtlinien und Sicherheitsfilter. Bestimmte Modellkategorien lehnen folgende Inhalte ab: reale Personen mit echtem Namen, die in der Öffentlichkeit stehen, nicht jugendfreie Inhalte sowie sensible Darstellungen mit Bezug zu Kindern. Es kann gelegentlich vorkommen, dass der Filter völlig harmlose Eingaben fälschlicherweise blockiert, weil bestimmte Wörter einen Schlüsselwortabgleich auslösen. Versuchen Sie in solchen Fällen, den Satz anders zu formulieren. Die meisten fälschlichen Blockierungen werden beim dritten Versuch, denselben Gedanken mit anderen Worten auszudrücken, aufgehoben.
Stilistische Konsistenz bei großen Mengen. Wenn Sie 50 Bilder für einen Marken-Styleguide erstellen, ist davon auszugehen, dass 45 davon einheitlich wirken, während 5 wie Ausreißer aussehen, die aus einem anderen Modell stammen. Die Lösung besteht entweder darin, diese 5 Bilder mit strengeren Vorgaben neu zu generieren, oder eine gewisse stilistische Abweichung in Kauf zu nehmen. Große Marken mit sehr strengen Stilvorgaben benötigen dennoch einen menschlichen Art Director, der die endgültigen Entwürfe überprüft – das ist wohl für jede seriöse Marke das Richtige.
Verzögerungen bei der Antwort während der Spitzenzeiten. Zwischen 14:00 und 22:00 Uhr UTC verlängert sich die Generierungszeit deutlich, was der Überschneidung der Arbeitszeiten in den USA und Europa entspricht. Während an normalen Tagen die Ausgabe 4 bis 8 Sekunden dauert, verlängert sich diese in Spitzenzeiten auf 15 bis 30 Sekunden; in äußerst seltenen Fällen kommt es zu einem Timeout beim ersten Versuch, während der zweite Versuch erfolgreich ist. Dies ist die objektive Realität der GPU-gemeinsamen Inferenz im Jahr 2026.
„Es ist keine Zauberei“ – Eine Vertrauensbekundung
Ein solches Modell ist im Grunde eine Wahrscheinlichkeitsfunktion, die auf einer riesigen Trainingsverteilung definiert ist. Es ist sehr stark bei der Interpolation – es erzeugt Ergebnisse, die der Verteilung der Trainingsdaten ähneln. Bei der Extrapolation ist es hingegen relativ schwach – es erzeugt Dinge, die es in Wirklichkeit noch nie gegeben hat. Wenn man es auffordert, „eine Katze“ zu zeichnen, trifft es den Nagel auf den Kopf; wenn man es auffordert, „ein biomechanisches außerirdisches Wesen zu zeichnen, das noch nie in einem Science-Fiction-Werk aufgetaucht ist“, erhält man oft ein „biomechanisches außerirdisches Wesen, das aussieht, als wäre es in einem Science-Fiction-Roman aufgetaucht“, da sich im Trainingsdatensatz nur solche Beispiele befinden. Wenn man die Erwartungen richtig abstimmt, liefert es die gewünschten Ergebnisse.
Häufig gestellte Fragen
Was genau ist GPT Image 2? In einem Satz erklärt
GPT Image 2 ist ein KI-Bildgenerator aus dem Jahr 2026, der auf den Modellen der gpt-image-2-Reihe von KIE basiert und Text sowie Referenzbilder in fotorealistische Bilder umwandelt. Der Preis beträgt einheitlich 12 Punkte pro Bild. Er unterstützt sowohl die Umwandlung von Text in Bilder als auch von Bildern in Bilder, wobei die Prompts eine Länge von bis zu 20.000 Zeichen haben können. Besonders hervorzuheben ist seine Leistung bei langen, strukturierten Briefings.
Ist das dasselbe wie DALL-E 3 und die Bildgenerierung mit GPT-4o?
Nein. GPT Image 2 basiert auf der von KIE gehosteten Modellfamilie „gpt-image-2“ und knüpft konzeptionell an die „GPT-Image“-Reihe an, wobei es sich jedoch um einen anderen Code-Stamm handelt. Die Namensgebung verdeutlicht die Abstammung: Es übernimmt die von DALL-E 3 eingeführte Methodik der langen Prompts und der sprachlichen Nativität, existiert jedoch als eigenständiges System, das auf der Infrastruktur von KIE gehostet wird.
Wie viel kostet GPT Image 2?
Jedes Bild kostet 12 Punkte, unabhängig von Auflösung, Seitenverhältnis und Generierungsmodus (Text-zu-Bild oder Bild-zu-Bild). Es gibt keine versteckten Aufschläge für „HD“ oder „Premium“ – denn es gibt gar keinen sogenannten Premium-Modus; standardmäßig werden Bilder in voller Bildqualität ausgegeben.
Dürfen die erstellten Bilder kommerziell genutzt werden?
Ja, die von Nutzern der kostenpflichtigen Version erstellten Bilder sind für die kommerzielle Nutzung lizenziert. Sie sind für den Inhalt der Eingabeaufforderung und die nachfolgende Verwendung verantwortlich – das Tool erteilt keine Lizenz für die Nutzung markenrechtlich geschützter Figuren. Was Logos und Markenzeichen betrifft, sollten Sie die endgültige Umsetzung von einem menschlichen Designer vornehmen lassen, da reine KI-Ergebnisse nach dem US-amerikanischen Urheberrecht derzeit als nicht schutzfähig gelten, sofern kein menschlicher Schaffensbeitrag vorliegt.
Wie lang darf ein Prompt maximal sein?
20.000 Zeichen entsprechen etwa 3.000 englischen Wörtern und sind damit länger als die meisten Kreativ-Briefings. Die tatsächliche Länge „wirksamer“ Eingaben ist deutlich kürzer und liegt in der Regel zwischen 300 und 600 Wörtern – bei längeren Texten beginnt das Modell, Durchschnittswerte zu berechnen, anstatt genau auf die Vorgaben zu reagieren. Diese Obergrenze dient dazu, dass lange strukturierte Eingaben (vollständige Szenenbeschreibung + Shot-Liste + Stilhinweise) nicht abgeschnitten werden.
Wie verwendet man „Bild aus Bild“?
Lade ein Ausgangsbild hoch und beschreibe in der Eingabe, was du ändern möchtest. Bei einer Eingabe für geringfügige Änderungen, wie beispielsweise „Den Hintergrund durch einen goldenen Strand bei Sonnenuntergang ersetzen“, bleibt das Hauptmotiv des Originalbildes weitgehend erhalten. Bei einer Eingabe für umfangreiche Änderungen, wie beispielsweise „Im Stil eines Comics aus den 1960er Jahren neu zeichnen“, wird das Originalbild stark neu interpretiert. Die gleiche API-Schnittstelle entscheidet anhand deiner sprachlichen Absicht, ob eine geringfügige oder eine umfangreiche Änderung vorgenommen wird.
In welchem Format werden die Bilder gespeichert?
Standardmäßig WebP, verlustfrei und mit guter Browserkompatibilität. Falls nachgelagerte Tools WebP nicht verarbeiten können, konvertieren Sie die Datei mit einem beliebigen Browser- oder Desktop-Konverter in einem Schritt in PNG oder JPEG. Die endgültige Auflösung hängt vom im Befehl angegebenen Seitenverhältnis ab.
Gibt es ein kostenloses Kontingent?
Bei der Registrierung eines neuen Kontos erhalten Sie Startguthaben, das für die Erstellung einiger Bilder ausreicht, damit Sie erst einmal testen können, ob Sie die kostenpflichtige Version nutzen möchten. Sobald das Guthaben aufgebraucht ist, können Sie auf der Kontoseite weiteres Guthaben erwerben. Nutzer, die zum ersten Mal Guthaben kaufen oder über den Blog auf die Seite gelangen, erhalten gelegentlich zusätzliche Aktionspunkte; maßgeblich sind dabei die jeweils auf der Startseite angezeigten Aktionen.
Sind Sie bereit, loszulegen?
GPT Image 2 löst ein ganz konkretes Problem im Jahr 2026: die schnelle, kostengünstige und vorhersehbare Erstellung hochwertiger statischer Bilder, ohne dass man sich mit komplizierten Tools herumschlagen muss. Die beiden unterstützten Modi – Text-zu-Bild und Bild-zu-Bild – decken die meisten kreativen Arbeitsabläufe ab, und die einheitliche Preisgestaltung mit 12 Punkten sorgt für eine übersichtliche Abrechnung.
Jetzt mit GPT Image 2 generieren →
Wenn Sie tiefer in die Materie einsteigen möchten, ist unser praktischer Leitfaden So nutzen Sie GPT Image 2 die beste Wahl. Darin werden Prompt-Strategien, häufige Fallstricke sowie ein Beispielablauf zum Erstellen einer stilistisch einheitlichen Bildersammlung erläutert. Wenn Sie das Verfassen von Prompts wie das Schreiben üben möchten, lesen Sie den Leitfaden für GPT Image 2-Prompts. Darin werden die Strukturen und Modifikatoren, die das Modell zuverlässig in die von Ihnen gewünschte Richtung lenken, einzeln erläutert.

