Korte samenvatting
GPT Image 2 is een AI-tool voor het genereren van afbeeldingen die in de browser draait. Er zijn slechts twee modi: tekst-naar-afbeelding (text-to-image) en afbeelding-naar-afbeelding (image-to-image). De kosten bedragen 12 punten per afbeelding, zonder extra opties zoals resolutie, verhoudingen of kwaliteitsniveaus. In dit artikel wordt alles uitgelegd, van registratie, het maken van de eerste afbeelding en het uploaden van referentiefoto's voor bewerking tot de prompttechnieken waarmee je daadwerkelijk bruikbare afbeeldingen kunt produceren. Probeer GPT Image 2 gratis uit →
Voordat je begint: wat heb je nodig?
Voor het gebruik van GPT Image 2 heb je geen geavanceerde grafische kaart, Photoshop of enige ervaring met AI nodig; alle berekeningen worden op de server uitgevoerd, terwijl de browser alleen zorgt voor de invoer en de weergave van de resultaten. Het enige wat je echt moet voorbereiden, is heel eenvoudig:
- Een moderne browser. De huidige versies van Chrome, Edge, Safari, Firefox en Arc zijn allemaal geschikt. Het inschakelen van hardwareversnelling zorgt voor een vloeiender voorbeeldweergave, maar is niet noodzakelijk.
- Een e-mailaccount. Registratie met e-mailadres en wachtwoord wordt ondersteund, evenals inloggen met Google. Zowel zakelijke e-mailadressen als Gmail zijn toegestaan; e-mailadressen met een wegwerpdomein worden geweigerd.
- Een klein saldo aan punten. Of het nu gaat om tekst-naar-afbeelding of afbeelding-naar-afbeelding, ongeacht de lengte van de prompt of de uitvoerverhouding, kost elke afbeelding 12 punten. Nieuwe accounts krijgen gratis proefpunten, genoeg om de eerste paar afbeeldingen in deze tutorial te maken.
- Een referentieafbeelding (optioneel). Als je van plan bent om 'afbeelding naar afbeelding' te gebruiken, zorg dan voor één of twee bronafbeeldingen in JPG-, PNG- of WebP-formaat. Een afbeelding mag bij voorkeur niet groter zijn dan 10 MB. Vierkante of staande composities leveren het gemakkelijkst stabiele resultaten op.
- **Een vaag idee is voldoende. ** Beginners willen vaak in één keer de "perfecte prompt" schrijven, waardoor ze juist vastlopen. De echt effectieve methode is om eerst met een eenvoudige prompt een afbeelding te genereren, te kijken wat het model je geeft, en dan te beslissen hoe je het aanpast.
Vanaf april 2026 hoeft u voor het gebruik van GPT Image 2 geen client te downloaden, geen API-sleutel aan te vragen en hoeft u ook niet op een wachtlijst te staan. Ga naar de startpagina, log in en begin met genereren: dat zijn de enige drie stappen.

Dit artikel is bedoeld voor mensen die deze tool goed willen gebruiken. De bediening van het programma zelf heb je binnen twee minuten onder de knie, maar het echte werk zit hem in het maken van keuzes: "wat schrijf je, waar let je op en wanneer pas je het aan?". In de volgende hoofdstukken gaan we hier dieper op in. Als je haast hebt, kun je eerst naar methode 1 gaan en pas terugkeren naar de hoofdstukken over zoekwoordtechnieken en veelgemaakte fouten wanneer je het eerste resultaat niet bevalt.
Methode 1: Tekst-naar-afbeelding – je eerste afbeelding maken vanaf nul
"Tekst-naar-afbeelding" is de functie die de meeste mensen het liefst willen uitproberen wanneer ze GPT Image 2 gebruiken: schrijf een korte beschrijving, klik op 'Genereren' en het model levert een complete afbeelding op. Hieronder volgt een stapsgewijze handleiding.
Stap 1: Open de generator en log in
Open de GPT Image 2-startpagina. Het generatorpaneel bevindt zich op de desktop op het eerste scherm en op mobiele apparaten in het eerste volledige blok. Als u niet bent ingelogd, verschijnt de optie "Genereren na inloggen". Kies uw e-mailadres of Google om in te loggen; dit duurt minder dan een minuut.
Nadat u bent ingelogd, wordt uw puntensaldo rechtsboven weergegeven. Controleer of u ten minste 12 punten heeft – nieuwe accounts beschikken over een proeftegoed, waardoor u het eerste voorbeeld in dit artikel kunt uitvoeren zonder een kaart te koppelen.
Stap 2: Ga naar het tabblad 'Tekst naar afbeelding'
Bovenaan de generator staan twee tabbladen: Tekst naar afbeelding en Afbeelding naar afbeelding. Gebruik eerst de standaardfunctie voor het omzetten van tekst naar afbeelding. Het invoerveld bevindt zich direct onder de tabbladen.
Je hoeft niet handmatig een model te kiezen – achter de schermen wordt KIE’s gpt-image-2-text-to-image gebruikt, zonder keuzemenu’s voor resolutie, verhoudingen of bestandsformaten: één model, één prijs.
Stap 3: Schrijf eerst een opzettelijk korte prompt
Een veelgemaakte fout van beginners is dat ze alle bijvoeglijke naamwoorden die ze kennen in de eerste prompt proppen. Doe dat niet. Begin met een korte, concrete beschrijving om te zien hoe het model in de "standaardmodus" presteert. Hieronder staat de prompt die ik gebruikte toen ik dit artikel aan het voorbereiden was en de eerste test uitvoerde:
A golden retriever puppy sitting in a sunlit field of wildflowers, shallow depth of field,
warm afternoon light.(Betekenis in het Chinees: een golden retriever-puppy zit tussen de wilde bloemen in de zon, met een geringe scherptediepte en warm middaglicht.)
Plak het in het invoerveld en klik op Generate. De meeste prompts leveren binnen 20 tot 40 seconden een resultaat op, hoewel het tijdens piekuren iets langer kan duren.
Stap 4: Eerlijk de resultaten evalueren
Toen ik de bovenstaande prompt voor het eerst uitvoerde, was het resultaat grotendeels naar wens: warme tinten, scherpe ogen, een natuurlijk vervaagde achtergrond – maar de poten van de hond waren enigszins wazig, wat een typisch zwak punt is van de huidige beeldmodellen. Dat is heel normaal; deze stap is niet bedoeld om een cijfer te geven, maar om je een idee te geven van de „standaarduitvoer“.
Op de eerste afbeelding moet je in ieder geval op drie dingen letten:
- Is het onderwerp correct? Geeft het model het door jou gewenste onderwerp weer? Of wijkt het af (bijvoorbeeld door een golden retriever als labrador weer te geven)?
- **Lichtrichting. ** Komt de werkelijke belichting overeen met uw beschrijving? "Warm middaglicht" zou zacht, gericht zijlicht moeten zijn, en geen licht van bovenaf.
- Compositie. Komt de kadrering van het onderwerp overeen met het beeld dat u voor ogen had? Of staat het onhandig in het midden?
Als er ook maar één van deze drie aspecten niet klopt, heb je een duidelijke reden om de prompt aan te passen – in plaats van blindelings opnieuw te genereren.
Stap 5: Schrijf een geoptimaliseerde prompt
Hieronder volgt een geavanceerdere versie van dezelfde scène. Het onderwerp en de belichting zijn hetzelfde, maar de compositie is beter afgestemd op GPT Image 2:
A 3-month-old golden retriever puppy with fluffy fur and floppy ears, sitting upright in a
meadow of wild daisies and lavender. Warm late-afternoon sunlight streams from the left,
casting long gentle shadows and creating a soft golden rim light on the fur. Shallow depth
of field, background softly blurred with bokeh. Shot on an 85mm lens, eye level with the
puppy. Photorealistic, high detail, natural colors.(Betekenis in het Chinees: Een drie maanden oude Golden Retriever-pup, met een pluizige vacht en slappe oren, zit rechtop in een veld met wilde madeliefjes en lavendel. Het warme middagzonlicht schijnt van links, werpt zachte, lange schaduwen en vormt een gouden contourlicht op de vacht. Korte scherptediepte, onscherpe achtergrond met bokeh. 85 mm-lens, op ooghoogte met de puppy. Realistische stijl, veel detail, natuurlijke kleuren.)
Er zijn vier wijzigingen ten opzichte van de eerste versie:
- Meer specifieke details over het onderwerp ("drie maanden oud", "pluizige vacht", "zachte oren"), zodat het model een duidelijk beeld krijgt.
- Duidelijke lichtrichting ("van links", "contourlicht op de vacht"), in plaats van alleen "warm" te schrijven.
- Camera-informatie ("85 mm-lens", "op ooghoogte met de puppy") geeft het model een concreet compositiesjabloon.
- Kwaliteitsbijvoeglijke naamwoorden aan het einde ("realistisch, gedetailleerd, natuurlijke kleuren") – kort en niet opdringerig.
Klik nogmaals op Generate. De tweede afbeelding zou beter moeten aansluiten bij het beeld dat je in gedachten hebt. Als het nog steeds niet klopt, herschrijf dan niet de hele tekst – verander telkens slechts één variabele, genereer opnieuw en vergelijk, zodat je kunt achterhalen welk woord het verschil maakt.
Een handig mentaal model: verdeel de prompt in vier „vakjes“ – onderwerp, actie, omgeving en stijl. Pas elke keer alleen het vakje aan dat het probleem veroorzaakt. Als het onderwerp niet klopt, pas dan het vakje „onderwerp“ aan; als de belichting niet klopt, pas dan het vakje „omgeving“ aan; als het eruitziet als een cartoon terwijl je een foto wilt, pas dan het vakje „stijl“ aan.
Stap 6: Opslaan, downloaden of verder werken
Zodra je tevreden bent met de afbeelding, vind je onder het voorbeeld een downloadknop. Elke gegenereerde afbeelding wordt automatisch opgeslagen in je accountgeschiedenis, zodat je eerdere versies kunt bekijken, oude promptteksten kunt kopiëren en verder kunt werken. Als je dit personage later in de afbeeldingsgenerator verder wilt bewerken, kun je deze afbeelding uit de geschiedenis selecteren als bronafbeelding.

De cyclus van "openen – tekst schrijven – evalueren – bijstellen – opnieuw genereren" die je zojuist hebt doorlopen, vormt de volledige werkcyclus van tekst-naar-afbeelding-generatie. De rest van dit artikel is erop gericht je te leren hoe je deze cyclus sneller kunt doorlopen en daarbij minder punten verbruikt.
Als je GPT Image 2 langdurig gebruikt, raad ik je aan om een tekstbestand bij te houden met "effectieve prompts". Geen sjabloon, maar je eigen logboek: telkens wanneer je tevreden bent met een afbeelding, voeg je de volledige prompt toe als opmerking. Na een half jaar zal deze verzameling beter aansluiten bij jouw smaak dan welke algemene sjabloon op internet dan ook.
Methode 2: Afbeelding genereren – Bewerkingen of stijlveranderingen aanbrengen op bestaande foto’s
Bij image-to-image (i2i) neemt het model een bronafbeelding als uitgangspunt, behoudt de delen die je wilt behouden en herschrijft de rest op basis van de ingevoerde prompt. Gebruik dit model voor verzoeken zoals "dezelfde persoon in andere kleding", "hetzelfde product met een andere achtergrond" of "dezelfde compositie in een andere stijl".
Stap 1: Ga naar het tabblad 'Image to Image'
Ga terug naar de startpagina van de generator en klik op Image to Image. Boven het invoerveld verschijnt een gebied voor het uploaden van bestanden. Het tekstvak blijft bestaan en ondersteunt nog steeds maximaal 20.000 tekens, maar werkt nu samen met de geüploade afbeelding.
Achter de schermen wordt gpt-image-2-image-to-image aangeroepen; de prijs is dezelfde als voor tekst-naar-afbeelding: 12 punten per afbeelding. Er is geen aparte schuifregelaar voor de "intensiteit"; de mate van verandering wordt volledig bepaald door de formulering van je prompt.
Als je InPainting (maskerbewerking) met andere tools hebt gebruikt, moet je je mindset aanpassen: GPT Image 2 vereist geen masker, maar bekijkt de volledige bronafbeelding samen met de volledige prompt en beslist vervolgens wat er moet worden aangepast. Voor 80% van de reële behoeften (achtergrond veranderen, kleding veranderen, dag naar nacht veranderen) is het bewerken van alleen de prompt juist minder werk.
Stap 2: De bronafbeelding uploaden
Sleep een JPG-, PNG- of WebP-bestand naar het uploadgebied of klik op 'Bestand selecteren'. Voor je eerste oefening kun je het beste een foto kiezen met helder licht en een eenvoudige compositie. Foto’s met bewegingsonscherpte, weinig licht of een rommelige achtergrond geven het model meer ruimte voor 'vrije interpretatie', waardoor het contrast tussen voor en achter juist moeilijker te zien is.
De onderstaande foto is een typisch voorbeeld van "het soort foto dat beginners bij hun eerste kennismaking met AI-tools uploaden" – een gewone selfie binnenshuis.

Stap 3: Eerst bepalen: gaat het om een "kleine reparatie" of een "complete make-over"?
Bedenk voordat je de prompt schrijft eerst goed welk niveau van aanpassing je wilt. Het genereren van afbeeldingen en het overschrijven van afbeeldingen zijn twee totaal verschillende doelen, en de manier waarop je de prompt schrijft verschilt ook:
- Kleine aanpassing (Edit): Het grootste deel behouden, slechts één element vervangen. "De kleding vervangen door marineblauw." "De koffiekop verwijderen." "De achtergrond vervangen door een boekenplank." "
- Transformatie (Transform): Identiteit behouden, de hele scène herschreven. "Dezelfde persoon, nu gekleed in Hanfu, staande op het terras van het paleis bij maanlicht." "Hetzelfde product, nu met een marmeren tafelblad en studioverlichting."
Hoe vollediger de prompt de nieuwe scène beschrijft, hoe meer het model zal wijzigen; als je slechts één eigenschap noemt, zal het de overige delen meestal ongewijzigd laten. Dit is de manier waarop je de „mate van wijziging“ kunt beïnvloeden zonder schuifregelaars.
Voorbeeld: change the shirt to navy blue (het overhemd veranderen in marineblauw) is een beperkte bewerking, waarbij het gezicht, het kapsel, de houding, de achtergrond en de belichting ongewijzigd blijven. Als je dit verandert in She is now wearing a tailored navy suit, standing in a glass-walled corporate office at golden hour (Ze draagt nu een op maat gemaakt marineblauw pak en staat in een kantoor met glazen wanden tijdens het gouden uur), dan is dat een transformatie: het pak, de omgeving en de belichting veranderen volledig, terwijl alleen het gezicht en de lichaamsvorm behouden blijven. Het is allemaal één zin, maar de omvang van de verandering wordt bepaald door hoeveel nieuwe scènes je beschrijft.
Stap 4: Schrijf een prompt waarin je het model vertelt "wat het moet behouden"
Hieronder staan de prompts die ik heb gebruikt om de bovenstaande bronafbeelding te 'transformeren':
Same woman — identical facial features and hair. Transform the scene: she now wears an
elaborate crimson-and-gold hanfu with intricate embroidery and a jeweled phoenix hairpin.
She stands on a moonlit palace terrace, red lanterns glowing softly in the background,
cherry blossom petals drifting in the air. Warm lantern light from the right, cool
moonlight fill from the left. Cinematic shallow depth of field, elegant composition, 4K
photorealistic.(Betekenis in het Chinees: Dezelfde vrouw – gezicht en kapsel zijn volledig behouden. Herschreven scène: Ze draagt nu een prachtige rood-gouden Hanfu met gedetailleerd borduurwerk, en in haar haarknot steekt een gouden feniksspeld. Ze staat op het terras van het paleis in het maanlicht, met op de achtergrond zacht schijnende rode lantaarns en ronddwarrelende kersenbloesemblaadjes. Aan de rechterkant warm licht van de lantaarns, aan de linkerkant koel maanlicht. Cinematografische ondiepe scherptediepte, elegante compositie, 4K-realistisch.)
Er zijn twee punten die nadrukkelijk worden vermeld:
- "Dezelfde vrouw — identieke gelaatstrekken en hetzelfde haar." Deze zin zorgt vrijwel volledig voor het behoud van de identiteit. Als je dit niet vermeldt, zal het model willekeurig afdwalen.
- Een volledige beschrijving van de nieuwe scène. Geef duidelijk aan wat de kleding, de locatie, de rekwisieten en de lichtinval zijn. Het model is bezig de hele omgeving te reconstrueren en heeft daarvoor een complete reeks instructies nodig, niet slechts één label.
Stap 5: Vergelijk het resultaat met de situatie ervoor
Klik op 'Generate' en bekijk het resultaat. Toen ik het testte, bleven in de gegenereerde afbeelding de herkenbare gelaatstrekken en de contouren van het kapsel behouden, terwijl al het andere volgens de instructies werd gereconstrueerd.

Bekijk de voor- en achterkant samen. Als het gezicht te veel verandert, voeg dan de zin "same person" toe aan de instructies (bijvoorbeeld door toe te voegen: "preserve exact face shape, same eyes, same nose, same lip shape" – behoud de exacte gezichtsvorm, dezelfde ogen, dezelfde neus en dezelfde lipvorm); als de scène niet genoeg is aangepast, voeg dan meer omgevingsdetails toe. Dat zijn de knoppen die je tot je beschikking hebt.
Stap 6: Je hoeft de pagina niet te verlaten; gebruik de uitvoer direct als de volgende invoer
Het handigste aan het genereren van afbeeldingen is dat de zojuist gegenereerde afbeelding op zichzelf al een geldige bron is voor de volgende bewerking. Klik op "Gebruik als nieuwe invoer" en typ een nieuwe prompt in (bijvoorbeeld "Dezelfde scène, maar nu bij zonsopgang" of "Dezelfde houding, maar nu met een vouwvächer in de hand"). De uiteindelijke afbeelding die ontstaat door kleine, opeenvolgende aanpassingen is bijna altijd strakker dan een extreem lange prompt waarmee je alles in één keer probeert te regelen.
"Kettingbewerking" is een van de meest waardevolle workflow-tips uit dit artikel. Een veelvoorkomende fout bij beginners: ze schrijven één prompt van 300 woorden waarin ze alles willen proppen, en zelfs na acht pogingen is het resultaat nog steeds niet goed. De professionele aanpak is om in fasen te werken: eerst de personages vastleggen, en vervolgens de kleding, de omgeving en de belichting bepalen op basis van de output van de vorige fase. Elke ronde is 12 punten waard, vier rondes samen 48 punten – het eindresultaat is veel strakker dan wanneer je tien keer achter elkaar opnieuw zou genereren.

Tips en trucs voor promptteksten die je afbeeldingen echt beter maken
Je hebt nu het volledige werkproces onder de knie. Het verschil tussen nieuwe gebruikers op hun eerste dag en ervaren gebruikers die met GPT Image 2 een portfolio kunnen samenstellen, zit niet in een of andere mysterieuze prompt, maar in de kennis van welke hefbomen echt effectief zijn. De volgende negen punten leveren in de praktijk de hoogste opbrengst op.
Tip 1: Zet het hoofdonderwerp vooraan en de kwaliteitswoorden achteraan
Zet aan het begin van de prompt "wie/wat er is afgebeeld" en verplaats termen die betrekking hebben op de beeldkwaliteit, zoals photorealistic, cinematic, 4K en high detail, naar het einde. Het model leest de prompt van voren naar achteren, waardoor het onderwerp aan het begin het zwaarst wordt gewogen, terwijl het onderwerp dat achter de zeven kwaliteitslabels wordt verborgen, minder aandacht krijgt.
Minder sterk: Hyperrealistische 4K-meesterwerkfoto in bioscoopkwaliteit met ultrahoge resolutie van een kat die op een vensterbank zit
Sterk: Een zwart-witte tuxedo-kat zit op een houten vensterbank en kijkt naar de regenachtige straat buiten. Zacht, diffuus licht dat door het raam naar binnen valt, geringe scherptediepte. Fotorealistisch, filmisch.
Tip 2: Beschrijf de "richting van het licht", niet de "sfeer van het licht"
"beautiful lighting" (mooie belichting) zegt eigenlijk niets. Pas met "warm sunset light from the left, long shadows falling to the right" (warm avondlicht van links, lange schaduwen naar rechts) weet het model waar elke schaduw precies moet vallen. Lichtbronnen met een richting en een naam (window light, rim light, softbox from above, neon fill from behind) zijn een van de meest efficiënte manieren om de beeldkwaliteit te verbeteren.
Tip 3: Beschrijf de compositie in fotografische termen, en je foto krijgt meteen een realistischer uitstraling
Wil je foto’s maken die een realistisch gevoel geven, gebruik dan de terminologie van fotografen. Door begrippen als brandpuntsafstand (35 mm, 50 mm, 85 mm, 135 mm), scherptediepte (shallow depth of field, deep focus) en camerapositie (eye level, low angle, overhead) te combineren, krijg je een reeks concrete compositiesjablonen. Het artikel Camera lens op de Engelstalige Wikipedia is een uitstekende bron die je in 10 minuten kunt doorlezen en die je helpt bij het bewust kiezen van de brandpuntsafstand.
Tip 4: Beschrijf de stijl op basis van het "medium" in plaats van de "naam van de kunstenaar"
De omschrijving "in de stijl van een bepaalde schilder" is niet alleen kwetsbaar, maar roept ook vragen op over de auteurschap. Een veiligere aanpak is om het medium zelf te beschrijven: olieverfschilderij met zichtbare penseelstreken, potloodschets met arceringen, vintage Kodachrome-filmlook met korrel, strakke vectorillustratie met vlakke kleuren. Dit geeft een esthetische richting aan, zonder afhankelijk te zijn van een specifieke persoon.
Tip 5: Gebruik 'positieve beschrijvingen' in plaats van 'negatieve beperkingen'
GPT Image 2 heeft geen apart invoerveld voor negatieve prompts. Als je bepaalde elementen wilt vermijden, kun je dat het beste doen door duidelijk te beschrijven wat je wel wilt. In plaats van no people, no text, no clutter te schrijven, kun je beter een lege kamer met strakke muren, een minimalistische compositie en een enkele plant in de hoek schrijven. Een positieve beschrijving is veel betrouwbaarder dan negatieve bewoordingen.
Tip 6: Bij het genereren van afbeeldingen moet je eerst de identiteit vastleggen en vervolgens de scène herschrijven
Als je een "kostuum- of scènewisseling" uitvoert en je wilt dat het gezicht hetzelfde blijft, is de eerste zin van de prompt cruciaal. Een zin als Same person — preserve facial features, hair color, and skin tone (Dezelfde persoon — behoud gezichtskenmerken, haarkleur en huidskleur) aan het begin is effectiever dan welke mooie scènebeschrijving dan ook verderop in de prompt. Als de identiteit nog sterker moet worden benadrukt, voeg dan toe: same eye shape, same nose, same lips. Duidelijkheid werkt beter dan suggesties.
Tip 7: Werk in kleine stappen, in plaats van hele stukken te herschrijven
Verander telkens slechts één variabele. Als de houding goed is maar de kleding niet, pas dan alleen het gedeelte over de kleding aan; als de belichting niet klopt maar de rest wel, pas dan alleen het gedeelte over de belichting aan. Alleen zo creëer je een echt beheersbare feedbackloop, waardoor je weet welke aanpassing welk effect heeft. Het herschrijven van de hele paragraaf vernietigt dit signaal en kost je punten.
Tip 8: Schrijf de prompt in de volgorde van "wat het model als eerste in acht moet nemen"
Zet de belangrijkste elementen vooraan: onderwerp → actie → omgeving → stijl. Als je schrijft: "in de stijl van een olieverfschilderij loopt er een vrouw in een rode jurk in de schemering over een straat met kinderkopjes", vertel je het model dat "dit in de eerste plaats een olieverfschilderij is" en dat de rest bijzaak is. Verander dit in "Een vrouw in een rode jurk loopt in de schemering over een straat met kinderkopjes, weergegeven als een olieverfschilderij". Het model hoort dan eerst het hoofdonderwerp en pas als laatste het medium. De hoeveelheid informatie is hetzelfde, maar de afbeelding die bij de tweede versie wordt gegenereerd, is doorgaans aanzienlijk nauwkeuriger.
Tip 9: Gebruik de termen die fotografen en regisseurs daadwerkelijk gebruiken
Dutch angle (Nederlandse hoek), rack focus (focusverschuiving), golden hour (gouden uur), overcast daylight (daglicht bij bewolkte hemel), softbox (softbox), gobo shadow (gobo-schaduw), hero shot (hero shot), two-shot (tweepersoonsopname), negative space (negatieve ruimte): deze termen hebben een duidelijke betekenis in de fotografie en film, en in de trainingsdata zijn veel afbeeldingen voorzien van deze termen. Vage emotionele termen (vibey, dreamy, epic) zijn voor het model een veel zwakker signaal. Het artikel Shot (filmmaking) op de Engelstalige Wikipedia is een goede 15 minuten durende woordenlijst om snel door te nemen.
De meest voorkomende fouten van beginners, en hoe je ze kunt verhelpen
Eerlijk gezegd heb ik al deze fouten zelf ook gemaakt. De kans is groot dat jij ze ook maakt, maar je kunt ze in ieder geval sneller herkennen.
Fout 1: Een prompt van 400 tekens schrijven in de hoop in één keer een definitief resultaat te krijgen. Beeldmodellen zijn beter in het verwerken van "beknopte, iteratieve" prompts dan van "enorme, allesomvattende" prompts. De limiet van 20.000 tekens is niet het doel. Bij de resultaten van GPT Image 2 waar ik het meest tevreden over ben, bevatten de prompts meestal tussen de 40 en 120 woorden.
Fout 2: Herhaaldelijk opnieuw genereren zonder de prompt te wijzigen. Als je twee keer op 'Generate' klikt met dezelfde prompt, krijg je telkens 'bijna klaar', en bij de derde keer nog steeds 'bijna klaar'. De willekeurigheid blijft beperkt tot een klein gebied; als de richting van dat gebied verkeerd is, helpt herhaaldelijk opnieuw genereren niet – je moet de prompt aanpassen.
Fout 3: Tegenstrijdigheden in de prompt. In één en dezelfde prompt staat zowel "soft dreamy watercolor" (zachte, dromerige aquarel) als "ultra-sharp photorealistic 4K" (ultra-scherpe, fotorealistische 4K). Dit is tegenstrijdig. Het model zal een van beide kiezen, of erger nog: een gemiddelde van beide maken. Denk eerst goed na voordat je schrijft.
Fout 4: Te hoge verwachtingen van de tekst in de afbeelding. Tot april 2026 is de weergave van lange tekstfragmenten, en met name niet-Latijnse tekens, door AI-beeldmodellen nog steeds onbetrouwbaar. Korte tekstfragmenten zoals op een uithangbord lukken soms, maar tekst op paragraafniveau lukt zelden. Als de tekst de kern van de boodschap vormt, kun je deze na het genereren eenvoudig met een willekeurige beeldbewerkingsprogramma over de afbeelding heen plaatsen.
Fout 5: Een wazige bronafbeelding uploaden. Het model gebruikt het detailniveau van de bronafbeelding als maatstaf. Een wazige, slecht belichte mobiele foto zal, hoe vaak je ook in je prompt "scherp en helder" vermeldt, in de uitvoer dat wazige effect behouden. Kies dus een scherpe bronafbeelding als dat mogelijk is.
Fout 6: Leg de nadruk niet op de handen. Handen blijven de meest voorkomende bron van fouten bij het genereren van afbeeldingen. Als de handen in de compositie centraal moeten staan, moet je er rekening mee houden dat je een paar extra bewerkingsrondes nodig hebt; als ze niet de kern vormen, laat de handen dan buiten beeld blijven of laat ze op natuurlijke wijze hangen.
Fout 7: De verhoudingen negeren bij het uploaden van afbeeldingen voor het genereren van nieuwe afbeeldingen. De uitvoer van het genereren van afbeeldingen volgt doorgaans de verhoudingen van de bronafbeelding. Als je een banner wilt, maar een staande selfie uploadt, werk je in feite tegen het model in. Snijd de bronafbeelding eerst bij tot de gewenste verhoudingen voordat je deze genereert.
Fout 8: De 'eerste, redelijke afbeelding' als definitief resultaat beschouwen. Ervaren gebruikers zien 'redelijk' als het uitgangspunt voor de volgende ronde. Het verschil tussen 'redelijk' en 'portfoliokwaliteit' wordt meestal pas bij de derde poging zichtbaar, niet bij de eerste.
Fout 9: Vergeten dat het model geen geheugen heeft tussen twee generaties. Tenzij je de vorige uitvoer als bronafbeelding gebruikt bij het genereren van een afbeelding op basis van een afbeelding, is elke generatie volledig nieuw. Als je oude personages wilt hergebruiken, sla dan de oorspronkelijke prompt op, of ga direct verder met het bewerken van de vorige afbeelding.
Hoe werkt GPT Image 2 van binnenuit (in het kort)
Dit gedeelte is niet verplicht, maar helpt je wel om realistische verwachtingen te hebben. GPT Image 2 is een gestroomlijnde gebruikersinterface die rechtstreeks gebruikmaakt van de twee KIE-modellen gpt-image-2-text-to-image en gpt-image-2-image-to-image. Deze modellen behoren tot de familie van diffusiemodellen en zijn geoptimaliseerd voor het volgen van instructies en het genereren van realistische afbeeldingen met hoge getrouwheid. Bij elke aanvraag vindt authenticatie plaats, worden 12 punten in rekening gebracht, wordt de aanvraag in de wachtrij geplaatst en wordt een afbeeldings-URL geretourneerd.
Het is geen toeval dat er zo weinig schuifregelaars op de interface te zien zijn: de KIE API stelt deze bedieningselementen zelf niet beschikbaar, en het toevoegen van "nepschuifregelaars" aan de bovenlaag zou alleen maar misleidend zijn. Alles wat het model kan doen, wordt via promptteksten uitgedrukt. Voor meer informatie over de principes kun je Wikipedia Diffusion model en de onderzoekspagina van OpenAI raadplegen.
GPT Image 2 heeft ook zijn tekortkomingen
Als je alleen de positieve kanten belicht en de negatieve kanten buiten beschouwing laat, is het geen handleiding meer. Hieronder volgen de algemene tekortkomingen van GPT Image 2 – en eigenlijk van alle gangbare beeldmodellen van dit moment:
- Nauwkeurige weergave van merkelementen. Logo’s, gelicentieerde personages en productverpakkingen kunnen niet consistent worden gereproduceerd. De juiste werkwijze is om een compositie te genereren en daar vervolgens het echte logo in te voegen.
- **Strikte consistentie met de referentie. ** Wanneer een personage in tientallen afbeeldingen (bijvoorbeeld in een stripverhaal) volledig consistent moet zijn, is het behoud van de identiteit bij het genereren van afbeeldingen al veel beter dan bij het genereren van afbeeldingen op basis van tekst, maar nog steeds niet zo nauwkeurig als bij het trainen van LoRA of het binden van 3D-personages, waarbij elke frame nauwkeurig wordt weergegeven.
- Anatomie bij extreme houdingen. Vingers, voeten, tanden, oren en gekruiste ledematen zijn de delen die het snelst misgaan. Hoe dichterbij de camera, hoe duidelijker de fouten.
- Perfecte compositie. Zoals hierboven al vermeld – dit blijft een feit.
Nog twee opmerkingen: ten eerste is er inherent willekeur in de steekproeven van het diffuusiemodel – dezelfde prompt levert elke keer een ander resultaat op. Diversiteit is een voordeel, consistentie een nadeel; dit laatste kan worden verholpen door middel van kettingbewerking waarbij afbeeldingen worden gegenereerd op basis van andere afbeeldingen. Ten tweede weerspiegelt het model de verdeling van de trainingsdata, waardoor het bij minder gangbare culturele contexten moeilijker is om in één keer het juiste resultaat te krijgen dan bij populaire onderwerpen; houd er dus rekening mee dat er meerdere iteraties nodig zijn.
Een echt goede workflow voor het genereren van afbeeldingen met AI is niet gebaseerd op één model dat alles moet doen, maar op het principe dat GPT Image 2 80% van de belangrijkste beelden genereert en een eenvoudige editor de resterende 20% handmatig afwerkt.
Overzicht op één pagina: het volledige proces
Als je alleen de versie wilt die je in één oogopslag naast het scherm kunt lezen:
- Ga naar de GPT Image 2-startpagina en log in.
- Controleer of je account ten minste 12 punten heeft.
- Kies een label: Text to Image of Image to Image.
- Afbeelding genereren: upload een heldere bronafbeelding.
- Schrijf eerst een korte, specifieke prompt. Het onderwerp eerst, de kwaliteitswoorden daarna.
- Genereer. Beoordeel eerlijk op drie dimensies: onderwerp, belichting en compositie.
- Wijzig slechts één variabele, genereer opnieuw en vergelijk.
- Herhaal stap 6–7 totdat je tevreden bent met het resultaat.
- Download.
Dat is het zo’n beetje. Alle sneltoetsen, tips en gewoontes van ervaren gebruikers in dit artikel zijn variaties op deze negen stappen.
Nog een kleine tip: schrijf je prompt eerst in een tekstverwerker en plak deze vervolgens in de generator. Zo kun je gemakkelijk een geschiedenis bijhouden, de woordvolgorde aanpassen en vaste openingszinnen zoals "Same person — preserve facial features…" hergebruiken. Als je tevreden bent met het resultaat, kopieer je de definitieve versie terug naar je promptlogboek. Deze kleine extra stap voorkomt dat je beste prompts verloren gaan wanneer je de browser vernieuwt.
Veelgestelde vragen
Hoeveel punten levert elke afbeelding op in GPT Image 2?
Of het nu gaat om het genereren van afbeeldingen op basis van tekst of het genereren van afbeeldingen op basis van andere afbeeldingen, het tarief is altijd 12 punten per afbeelding. Er zijn geen extra kosten voor zaken als "langere prompts", "grotere uitvoer" of "hogere beeldkwaliteit" — die opties bestaan simpelweg niet. Punten kunnen in pakketten op de website worden gekocht, en nieuwe accounts krijgen automatisch proefpunten toegekend.
Moet ik iets installeren om GPT Image 2 te kunnen gebruiken?
Dat is niet nodig. Alles gebeurt in de browser. Er is geen desktop-app, geen browser-plug-in en voor de webinterface hoef je ook geen API-sleutel aan te vragen. Je hebt alleen een moderne browser en een e-mailaccount nodig.
Hoe lang mag een prompt maximaal zijn?
Zowel bij tekst-naar-beeld als bij beeld-naar-beeld ondersteunen de promptinvoer maximaal 20.000 tekens. Dat gezegd hebbende, zijn de meest effectieve prompts in de praktijk meestal tussen de 40 en 200 woorden lang. Te lange prompts kunnen het signaal verwateren of zelfs tegenstrijdigheden veroorzaken; goed gestructureerde, korte prompts presteren doorgaans beter.
Kan ik meerdere referentieafbeeldingen tegelijk uploaden?
De modus 'Afbeelding genereren' ondersteunt één bronafbeelding per keer. Als je meerdere referenties wilt combineren (bijvoorbeeld 'dit personage + de stijl van dit kledingstuk'), kun je gebruikmaken van kettinggeneratie: maak eerst een tussenafbeelding en gebruik die vervolgens als bronafbeelding voor de volgende stap, waarbij je met een nieuwe prompt verdergaat met aanpassen. Kettingbewerking levert vaak een strakker resultaat op dan het genereren van een afbeelding op basis van één complexe prompt.
Ondersteunt GPT Image 2 een bepaalde resolutie of beeldverhouding?
De huidige prijsstelling is uniform en de KIE API biedt geen instellingen voor schaal of resolutie die door de gebruiker kunnen worden aangepast. De uitvoer van de afbeeldingsgenerator volgt doorgaans de vorm van de bronafbeelding. Als u dus een specifieke schaal nodig hebt, moet u de bronafbeelding eerst bijsnijden en vervolgens opnieuw genereren.
Mogen de gegenereerde afbeeldingen voor commerciële doeleinden worden gebruikt?
Het gebruik van de afbeeldingen is onderworpen aan de gebruiksvoorwaarden in de voettekst van de website; deze voorwaarden zijn bindend. In de praktijk gebruiken de meeste gebruikers de afbeeldingen tot 2026 voor marketingideeën, content voor sociale media, prototypen en persoonlijke creaties. Raadpleeg de op dat moment geldende voorwaarden voordat u een afbeelding gebruikt voor producten waarmee inkomsten worden gegenereerd.
Hoe zorg je ervoor dat hetzelfde personage er op meerdere afbeeldingen hetzelfde uitziet?
Gebruik image-to-image en vermeld aan het begin van de prompt duidelijk de clausule voor het behoud van identiteit ("Same person — preserve facial features, hair color, and skin tone"). Gebruik vervolgens elke output als bronafbeelding voor de volgende afbeelding en ga verder met genereren aan de hand van een nieuwe scènebeschrijving. Deze methode is niet zo nauwkeurig als een speciaal getrainde LoRA voor personages, maar levert veel betere resultaten op dan telkens opnieuw beginnen met tekst-naar-afbeelding.
Wat is de snelste manier om GPT Image 2 te leren gebruiken?
Gebruik bij de eerste 12 tot 20 generaties eenvoudige prompts voor tekst-naar-afbeelding om de prestaties van het model in de "standaardmodus" goed te doorgronden; ga daarna over op afbeelding-naar-afbeelding, waarbij je begint met een blanco bronafbeelding. Volg de stappen op de vorige pagina; de meeste gebruikers zullen na ongeveer een uur serieus oefenen redelijk vlot mee kunnen.
Waarom lijken mijn resultaten helemaal niet op de zoekopdracht?
Er zijn drie veelvoorkomende oorzaken: ten eerste, kwaliteitswoorden staan vooraan en de kern van de tekst staat achteraan – verplaats de kern naar het begin; Ten tweede: tegenstrijdige trefwoorden (bijvoorbeeld "waterverf" en "fotorealistisch" naast elkaar) – kies één medium; Ten derde: alleen emotionele woorden ("mooi", "indrukwekkend") zonder concrete zelfstandige naamwoorden – vul aan met concrete objecten, de richting van het licht en beeldtaal.
Ben je er klaar voor?
Nu heb je een complete workflow, bruikbare prompts, valkuilen die je moet vermijden en een handige overzichtspagina. Er rest je nog maar één ding: open de generator en gebruik je eerste 100 punten om te ontdekken welke prompts jij het leukst vindt. Deze stap kan niemand voor je doen.
Open GPT Image 2 en maak je eerste afbeelding →
Als u hierover meer wilt lezen:
- Wat is GPT Image 2? Functies, prijzen en toepassingen
- GPT Image 2-promptgids: Schrijf prompts die echt werken
- GPT Image 2 vs Sora: vergelijking van beeldgeneratiecapaciteiten
- Probeer eerst de ingebouwde promptgenerator, die automatisch een volledige prompt genereert op basis van een eenvoudig idee.
- U kunt ook rechtstreeks naar de pagina's gaan die exclusief zijn voor de modus Text to Image of Image to Image.
Dit artikel is gepubliceerd door het GPT Image 2 Team. Vanaf april 2026 worden beide modellen uniform gefactureerd tegen 12 punten per afbeelding. Indien er in de toekomst wijzigingen worden doorgevoerd, zullen we dit artikel bijwerken en dit vermelden in het updateverslag.

