Vejledning til GPT Image 2: En komplet guide fra registrering til billedgenerering (2026)

Apr 22, 2026

Kort resumé

GPT Image 2 er et AI-billedgenereringsværktøj, der kører i browseren. Der er kun to tilstande – tekst-til-billede (text-to-image) og billede-til-billede (image-to-image) – og prisen er fastsat til 12 point pr. billede. Der er ingen ekstra indstillinger for opløsning, billedformat eller kvalitetsniveauer. Denne artikel guider dig gennem hele processen fra registrering, første billedgenerering og upload af referencebilleder til redigering, til de prompt-strategier, der virkelig kan producere brugbare billeder – alt på én gang. Prøv GPT Image 2 gratis →


Før du går i gang: Hvad skal du have klar

Du behøver ikke et avanceret grafikkort, Photoshop eller nogen erfaring med AI for at bruge GPT Image 2. Alle beregninger udføres på serveren, mens browseren kun står for indtastning og visning af resultaterne. Det eneste, du skal forberede, er ganske enkelt:

  • En moderne browser. Alle aktuelle versioner af Chrome, Edge, Safari, Firefox og Arc kan bruges. Aktivering af hardwareacceleration gør forhåndsvisningen mere flydende, men er ikke nødvendigt.
  • En e-mail-konto. Du kan registrere dig med en e-mail-adresse og adgangskode eller via Google-login. Både firma-e-mail og Gmail kan bruges, men engangs-e-mailadresser afvises.
  • En lille saldo af point. Uanset om det er tekst-til-billede eller billede-til-billede, uanset længden af promptteksten og uanset udskriftsformatet, koster det 12 point pr. billede. Nye konti har gratis prøvepoint, som er nok til at gennemføre de første par billeder i denne vejledning.
  • Et referencebillede (valgfrit). Hvis du planlægger at bruge billedgenerering, skal du forberede et eller to kildebilleder i JPG-, PNG- eller WebP-format. Det anbefales, at hvert billede ikke overstiger 10 MB. Kvadratiske eller lodrette kompositioner giver oftest de mest stabile resultater.
  • **En vag idé er nok. ** Begyndere forsøger ofte at skrive den "perfekte prompt" på én gang, hvilket ofte fører til, at de går i stå. Den virkelig effektive metode er at generere et billede med en simpel prompt, se hvad modellen giver dig, og derefter beslutte, hvordan du vil ændre det.

Frem til april 2026 kræver brugen af GPT Image 2 hverken download af en klient, ansøgning om en API-nøgle eller venteliste. Det kræver blot tre trin: Åbn hjemmesiden, log ind og begynd at generere.

Forside til vejledning i brug af GPT Image 2: Skaberen sidder foran sin bærbare computer og bruger et AI-billedgenereringsværktøj
Et bord, en browserfane, en prompt – det er hele arbejdsmiljøet for GPT Image 2.

Denne artikel er skrevet til dem, der ønsker at få det bedste ud af værktøjet. Selve betjeningen kan læres på to minutter, men det, der virkelig kræver tid og øvelse, er at tage stilling til, »hvad man skal skrive, hvad man skal kigge efter, og hvornår man skal ændre noget« – og det er netop det, de følgende afsnit handler om. Hvis du har travlt, kan du springe direkte til metode 1 og vende tilbage til afsnittene om søgeordsteknikker og almindelige fejl, når du støder på det første resultat, du ikke er tilfreds med.


Metode 1: Tekst til billede – Sådan laver du dit første billede fra bunden

Tekst-til-billede er den funktion, de fleste gerne vil prøve, når de besøger GPT Image 2: Man skriver en beskrivelse, klikker på »Generer«, og så returnerer modellen et færdigt billede. Her følger en trinvis vejledning.

Trin 1: Åbn generatoren og log ind

Åbn GPT Image 2-hjemmesiden. Generatorpanelet vises på første skærmbillede på desktopversionen og som det første fulde afsnit på mobilversionen. Hvis du ikke er logget ind, vises der et link med teksten »Generer efter login«. Vælg din e-mail eller Google for at logge ind – det tager mindre end et minut.

Når du er logget ind, vises din pointbalance i øverste højre hjørne. Sørg for, at du har mindst 12 point – nye konti har en prøveperiode, så du kan gennemføre det første eksempel i denne artikel uden at skulle tilknytte et kort.

Trin 2: Gå til fanen »Tekst til billede«

Øverst i generatoren er der to faner: Tekst til billede og Billede til billede. Start med standardfunktionen »Tekst til billede«. Indtastningsfeltet findes lige under fanelinjen.

Du behøver ikke vælge en model manuelt – i baggrunden bruges KIE’s gpt-image-2-text-to-image, og der er ingen rullemenuer for format, billedforhold eller opløsning: én model, én pris.

Trin 3: Skriv først et bevidst kort søgeord

En almindelig fejl blandt begyndere er at proppe alle de adjektiver, man kender, ind i den første prompt. Det skal du undgå. Start med en kort, konkret beskrivelse, og se, hvordan modellen klarer sig i sin »standardtilstand«. Her er den prompt, jeg brugte, da jeg forberedte denne artikel og testede den første gang:

A golden retriever puppy sitting in a sunlit field of wildflowers, shallow depth of field,
warm afternoon light.

(Beskrivelse: En golden retriever-hvalp sidder i en blomstereng i solskinnet, med lav dybdeskarphed og varmt eftermiddagslys.)

Indsæt det i indtastningsfeltet, og klik på Generate. De fleste søgeord giver et resultat på mellem 20 og 40 sekunder, men det kan tage lidt længere tid i spidsbelastningsperioder.

Trin 4: Vurder resultatet ærligt

Da jeg kørte ovenstående prompt for første gang, var resultatet stort set som forventet: varme farvetoner, skarpe øjne og en naturlig sløring af baggrunden – men hundens poter var lidt uskarpe, hvilket er en typisk svaghed ved de nuværende billedmodeller. Det er helt normalt; dette trin handler ikke om at give karakterer, men om at give dig en fornemmelse af, hvad der er en »standardudskrift«.

På det første billede skal man i det mindste holde øje med tre ting:

  1. Er motivet korrekt? Viser modellen det motiv, du ønskede? Eller er der tale om en fejl (f.eks. at en golden retriever er tegnet som en labrador)?
  2. **Lysretningen. ** Stemmer den faktiske belysning overens med din beskrivelse? "Varm eftermiddagslys" bør være blødt, retningsbestemt sidelys, ikke lys ovenfra.
  3. Komposition. Stemmer motivets placering overens med det billede, du har i tankerne? Eller er det akavet centreret?

Hvis blot én af disse tre dimensioner ikke stemmer, har du en klar grund til at ændre søgeordet – i stedet for blot at gentage søgningen uden videre.

Trin 5: Skriv en optimeret prompt

Her er en videreudviklet version af samme scene. Motivet og belysningen er de samme, men strukturen er tilpasset GPT Image 2:

A 3-month-old golden retriever puppy with fluffy fur and floppy ears, sitting upright in a
meadow of wild daisies and lavender. Warm late-afternoon sunlight streams from the left,
casting long gentle shadows and creating a soft golden rim light on the fur. Shallow depth
of field, background softly blurred with bokeh. Shot on an 85mm lens, eye level with the
puppy. Photorealistic, high detail, natural colors.

(Beskrivelse: En tre måneder gammel golden retriever-hvalp med fyldig pels og hængende ører sidder oprejst på en eng med vilde tusindfryd og lavendel. Det varme eftermiddagslys falder ind fra venstre og kaster en blød, lang skygge, der danner en gylden kontur på pelsen. Lav dybdeskarphed med blødt, uskarpt baggrundsbillede. 85 mm-objektiv, i øjenhøjde med hvalpen. Realistisk stil, høj detaljegrad, naturlige farver.)

Der er fire ændringer i forhold til den første udgave:

  • Mere konkrete detaljer om motivet („tre måneder gammel“, „fluffet pels“, „bløde ører“), så modellen kan danne sig et klart billede.
  • Tydelig angivelse af lysretningen („fra venstre“, „konturlys på pelsen“), i stedet for blot at skrive „varmt“.
  • Objektivvalg ("85 mm-objektiv", "i øjenhøjde med hvalpen") giver modellen en konkret kompositionsskabelon.
  • Kvalitetsbeskrivelser placeres til sidst ("realistisk, høj detaljegrad, naturlige farver") – kortfattet og uden at stjæle opmærksomheden.

Klik på »Generate« igen. Det andet billede bør nu være tættere på det, du har i tankerne. Hvis det stadig ikke er rigtigt, skal du ikke omskrive hele afsnittet – ændr kun én variabel ad gangen, generer og sammenlign, så du kan finde ud af, hvilket ord der har indflydelse.

En praktisk mental model: Opdel nøgleordet i fire "felter" – motiv, handling, miljø og stil. Rediger kun det felt, der er problemet, hver gang. Hvis motivet ikke passer, skal du ændre motivfeltet; hvis belysningen ikke passer, skal du ændre miljøfeltet; hvis billedet ligner en tegneserie, men du ønsker et fotografi, skal du ændre stilfeltet.

Trin 6: Gem, download eller fortsæt med at iterere

Når du er tilfreds med billedet, finder du en download-knap under forhåndsvisningen. Hver gang der genereres et billede, gemmes det automatisk i din kontohistorik, hvor du kan se tidligere versioner, kopiere gamle prompt-tekster og fortsætte med at arbejde videre. Hvis du senere ønsker at redigere denne karakter i billedgeneratoren, kan du blot vælge dette billede som kildebillede i historikken.

Filmagtige billeder genereret med GPT Image 2: En kvinde i en hvid silke-langkjole på stranden i det gyldne lys
En tekst-til-billede-prompt med en konkret beskrivelse af lysforholdene. Ved at angive "gyldent lys" og "silke i modlys" får modellen klare visuelle retningslinjer, som den kan arbejde ud fra.

Den proces, du netop har gennemgået – »åbne – skrive tekst – evaluere – finjustere – generere igen« – udgør hele arbejdscyklussen for tekst-til-billede-generering. Resten af denne artikel handler om, hvordan du kan få denne cyklus til at køre hurtigere og mere effektivt.

Hvis du bruger GPT Image 2 over længere tid, anbefaler vi, at du opretter en ren tekstfil, hvor du noterer de "effektive prompt-ord". Det er ikke en skabelon, men din egen logbog – hver gang du er tilfreds med et billede, skal du indsætte den fulde prompt med en kommentar på en ny linje. Efter et halvt år vil denne samling passe bedre til din smag end nogen generisk skabelon på nettet.


Metode 2: Billede til billede – redigering eller stilændring af eksisterende fotos

Image-to-image (i2i) tager udgangspunkt i et kildebillede, hvor modellen bevarer de dele, du ønsker at beholde, og omskriver resten ud fra en beskrivelse. Brug denne metode, hvis du ønsker at lave ting som »samme person i andet tøj«, »samme produkt med anden baggrund« eller »samme komposition i en anden stil«.

Trin 1: Skift til fanen "Image to Image"

Gå tilbage til hjemmesidegeneratoren, og klik på Image to Image. Over indtastningsfeltet vises nu et område til filoverførsel. Tekstfeltet er der stadig og understøtter fortsat op til 20.000 tegn, men fungerer nu sammen med det uploadede billede.

I baggrunden bruges gpt-image-2-image-to-image, og prisen er den samme som for tekst-til-billede – 12 point pr. billede. Der er ingen separat skyder til at justere "intensiteten"; hvor meget der ændres, afhænger udelukkende af formuleringen af din prompt.

Hvis du tidligere har brugt andre værktøjer til InPainting (maskeret retouchering), skal du huske at skifte tankegang: GPT Image 2 kræver ikke, at du tegner en maske, men læser hele kildebilledet sammen med hele promptteksten, før det beslutter, hvad der skal ændres. For 80 % af de reelle behov (skift af baggrund, skift af tøj, skift fra dag til nat) er det faktisk nemmere blot at redigere promptteksten.

Trin 2: Upload kildebilledet

Træk JPG-, PNG- eller WebP-filer ind i uploadområdet, eller klik for at vælge en fil. Til din første øvelse anbefaler vi, at du vælger et billede med klart lys og en enkel komposition. Billeder med bevægelsesslør, svagt lys eller rodet baggrund giver modellen mere spillerum til "fri fortolkning", hvilket kan gøre det sværere at se forskellen før og efter.

Billedet nedenfor er et typisk eksempel på den slags billede, som en nybegynder vil uploade, når vedkommende prøver et AI-værktøj for første gang – et helt almindeligt selfie taget indendørs.

Et almindeligt selfie taget indendørs, som eksempel på et kildebillede til GPT Image 2-billedgenerering
Kildebillede: Et lidt overeksponeret hverdags-selfie taget indendørs. Det er ikke et retoucheret billede, men netop den type input, som "Picture to Picture" er bedst til at forbedre.

Trin 3: Først skal du afgøre, om det drejer sig om en "mindre reparation" eller en "totalrenovering"?

Inden du skriver en prompt, skal du først gøre dig klart, hvilket omfang af ændringer du ønsker. Generering af billeder og overskrivning af eksisterende billeder er to helt forskellige formål, og derfor skal prompterne også skrives forskelligt:

  • Mindre ændringer (Edit): Behold det meste, udskift kun ét element. »Skift tøjet til marineblåt.« »Fjern kaffekoppen.« »Skift baggrunden til en bogreol. "
  • Omdannelse (Transform): Behold identiteten, men omskriv hele scenen.""Samme person, men nu iført traditionelt kinesisk tøj og stående på en terrasse ved et palads i måneskinnet.""Samme produkt, men nu med marmorbordplade og studielys."

Jo mere udførligt beskrivelsen af den nye situation er, desto mere ændrer modellen; hvis man kun nævner én egenskab, vil de øvrige dele typisk forblive uændrede. Dette er din mulighed for at styre "ændringsomfanget", selvom der ikke er nogen skydeknapper.

Eksempel: change the shirt to navy blue (skift skjorten ud med en marineblå) er en begrænset redigering, hvor ansigt, frisure, kropsholdning, baggrund og belysning forbliver uændrede. Skift til She is now wearing a tailored navy suit, standing in a glass-walled corporate office at golden hour (Hun bærer nu et skræddersyet marineblåt jakkesæt og står i et kontor med glasvægge i det gyldne lys), og det er en forvandling – jakkesæt, omgivelser og lys ændres fuldstændigt, mens kun ansigtet og kropsformen forbliver uændrede. Det er stadig én sætning, men omfanget af ændringen afhænger af, hvor mange nye scener du beskriver.

Trin 4: Skriv en prompt, der fortæller modellen, "hvad den skal beholde"

Her er de nøgleord, jeg brugte, da jeg lavede en "forvandling" af ovenstående kildebillede:

Same woman — identical facial features and hair. Transform the scene: she now wears an
elaborate crimson-and-gold hanfu with intricate embroidery and a jeweled phoenix hairpin.
She stands on a moonlit palace terrace, red lanterns glowing softly in the background,
cherry blossom petals drifting in the air. Warm lantern light from the right, cool
moonlight fill from the left. Cinematic shallow depth of field, elegant composition, 4K
photorealistic.

(Oversættelse: Den samme kvinde – ansigt og frisure er uændrede. Scenebeskrivelse: Hun er nu klædt i en pragtfuld rød-guld farvet hanfu med intrikate broderier og en guldfuglehårnål i håret. Hun står på paladsets terrasse i måneskinnet med blødt lys fra røde lanterner i baggrunden og flyvende kirsebærblomsterblade. Lyset fra de varme lanterner til højre og det kølige måneskin til venstre udfylder billedet. Filmisk lav dybdeskarphed, elegant komposition, 4K-realistisk.)

Der er to steder, hvor det udtrykkeligt er angivet:

  1. "Samme kvinde — identiske ansigtstræk og hår." Denne sætning klarer stort set hele arbejdet med at bevare identiteten. Uden den vil modellen bevæge sig vilkårligt.
  2. En fuldstændig beskrivelse af den nye scene. Tøj, sted, rekvisitter og lysretning skal alle beskrives tydeligt. Modellen er i gang med at genopbygge hele miljøet og har brug for et komplet sæt instruktioner, ikke blot en enkelt etiket.

Trin 5: Sammenlign før og efter genereringen

Klik på »Generate« for at se resultatet. Da jeg testede det, bevarede det genererede billede de genkendelige ansigtstræk og hårkonturer, mens alt andet blev rekonstrueret i henhold til beskrivelsen.

GPT Image 2-billede: Den samme person er blevet omdannet til en scene fra en historisk paladsdrama
Billedgenerering: Personernes identitet forbliver den samme, mens tøj, omgivelser og belysning omskrives fuldstændigt i overensstemmelse med beskrivelsen.

Se på før- og efterbillederne sammen. Hvis ansigtet har ændret sig for meget, skal du tilføje sætningen »same person« i instruktionerne (f.eks. ved at tilføje »bevar den nøjagtige ansigtsform, de samme øjne, den samme næse, den samme læbeform« – bevar ansigtsform, øjne, næse og læbeform); hvis scenen ikke er ændret nok, skal du tilføje flere detaljer om omgivelserne. Det er de knapper, du har til rådighed.

Trin 6: Brug resultatet som næste indtastning uden at forlade siden

Det bedste ved at generere billeder er, at det netop fremstillede billede i sig selv kan bruges som udgangspunkt for den næste redigering. Klik på »Brug som ny indtastning«, og skriv en ny beskrivelse (f.eks. »Samme scene, men nu ved daggry« eller »Samme stilling, men med en foldet vifte i hånden«). Det endelige billede, der fremkommer ved små, løbende redigeringer, bliver næsten altid mere vellykket end et meget langt beskrivelsestekst, der forsøger at dække alt på én gang.

"Kædebaseret redigering" er et af de mest værdifulde workflow-tips i denne artikel. Et typisk fejltrin blandt begyndere er at skrive en 300 ord lang beskrivelse, der skal dække alt, og så prøve otte gange uden at få det rigtige resultat. Den professionelle fremgangsmåde er at arbejde i runder: Først fastlægger man karakteren, og derefter bruger man resultatet fra den foregående runde som udgangspunkt for at fastlægge tøj, omgivelser og belysning. Hver runde giver 12 point, og fire runder giver i alt 48 point – hvilket giver et langt mere rent resultat end at gentage det ti gange på én gang.

GPT Image 2 – Stiloverførsel ved billedgenerering: Et ægte strandbillede til venstre, en cyberpunk-genfortolkning med neonlys til højre
Et skridt videre i stiloverførsel: Den samme person i samme stilling, omdannet fra en ægte strand til en neon-cyberpunk-tagterrasse. Så længe man angiver "same pose" i promptet, bevarer modellen sin geometri, mens alt andet tilpasses den nye scene.

Tips og tricks til at få bedre billeder

Du har nu fuldt styr på hele arbejdsgangen. Forskellen mellem nye brugere på deres første dag og erfarne brugere, der kan skabe porteføljer ved hjælp af GPT Image 2, ligger ikke i en eller anden mystisk prompt, men i at vide, hvilke metoder der virkelig virker. De ni punkter nedenfor giver det bedste udbytte i praksis.

Tip 1: Skriv hovedordet først og kvalitetsordet sidst

Skriv "Hvem/hvad er der afbildet?" i starten af beskrivelsen, og flyt ord som photorealistic, cinematic, 4K og high detail, der beskriver billedkvaliteten, til slutningen. Modellen læser beskrivelsen fra start til slut, så emnet i starten vægtes højest, mens emner, der er begravet bag de syv kvalitetstagger, får mindre vægt.

Mindre overbevisende: Hyperrealistisk 4K-mesterværk – filmisk detaljeret ultra-HD-foto af en kat, der sidder i vindueskarmen

Stærk: En sort-hvid smokingkat, der sidder på en vindueskarm af træ og kigger ud på en regnfuld gade. Blødt, diffust lys fra vinduet, lav dybdeskarphed. Fotorealistisk, filmisk.

Tip 2: Beskriv »lysets retning«, ikke »lysets stemning«

"Smuk belysning" er næsten det samme som ikke at sige noget. "Varmt solnedgangslys fra venstre, lange skygger, der falder mod højre" fortæller først modellen, hvor hver enkelt skygge skal falde. Lyskilder med retning og navn (window light, rim light, softbox from above, neon fill from behind) er nogle af de mest effektive måder at forbedre billedkvaliteten på med færrest mulige ord.

Tip 3: Beskriv kompositionen med fotografiske udtryk, så fremstår billedet straks mere realistisk

Hvis du vil have billeder med en stærk følelse af realisme, så lån fotografens terminologi. Ved at kombinere brændvidder (35 mm, 50 mm, 85 mm, 135 mm), udtryk for dybdeskarphed (shallow depth of field, deep focus) og kameravinkler (eye level, low angle, overhead) får modellen en række konkrete kompositionsskabeloner. Artiklen Camera lens på engelsk Wikipedia er et godt materiale, der kan læses på 10 minutter, og som hjælper dig med bevidst at vælge brændvidde.

Tip 4: Beskriv stilen ud fra »mediet« frem for »kunstnerens navn«

"i stil med en bestemt maler" er en beskrivelse, der både er usikker og kan give anledning til uenighed om tilskrivningen. En mere sikker fremgangsmåde er at beskrive mediet selv: oliemaleri med synlige penselstrøg, blyantskitse med krydsskygger, vintage Kodachrome-film-look med kornethed, ren vektorillustration med flade farver. Det giver en æstetisk retning uden at være afhængig af en bestemt person.

Tip 5: Brug "positive beskrivelser" i stedet for "negative begrænsninger"

GPT Image 2 har ikke et særskilt indtastningsfelt til negative promptord. Den bedste måde at undgå bestemte elementer på er at beskrive klart, hvad du ønsker. I stedet for at skrive ingen mennesker, ingen tekst, ingen rod, bør du skrive et tomt rum med rene vægge, minimalistisk komposition, en enkelt plante i hjørnet. Positive beskrivelser er langt mere pålidelige end negative formuleringer.

Tip 6: Når du skaber billeder ud fra billeder, skal du først fastlægge identiteten og derefter omskrive scenen

Når du laver »kostume- eller sceneskift«, er det afgørende, at ansigtet forbliver det samme, og det første i beskrivelsen er nøglen. En sætning som Same person — preserve facial features, hair color, and skin tone (Samme person — bevar ansigtstræk, hårfarve og hudfarve) placeret i starten virker bedre end nogen smuk scenebeskrivelse længere nede. Hvis identiteten skal være endnu mere tydelig, kan du tilføje same eye shape, same nose, same lips. Det er mere effektivt at sige det direkte end at antyde det.

Tip 7: Iterér i små trin i stedet for at omskrive hele afsnittet

Rediger kun én variabel ad gangen. Hvis holdningen er korrekt, men tøjet ikke passer, skal du kun ændre det afsnit, der handler om tøjet; hvis belysningen ikke er rigtig, men alt andet er fint, skal du kun ændre det afsnit, der handler om belysningen. På den måde skaber du en virkelig kontrollerbar feedback-loop, hvor du ved, hvilket ord der ændrer hvad. At omskrive hele afsnittet vil ødelægge denne feedback-loop og spilde tid.

Tip 8: Skriv nøgleordene i den rækkefølge, som modellen bør prioritere

Placer de vigtigste elementer først: motiv → handling → omgivelser → stil. Hvis du skriver "i stil med et oliemaleri ses en kvinde i en rød kjole, der går ned ad en brostensbelagt gade i skumringen", fortæller du modellen, at "dette først og fremmest er et oliemaleri", mens alt andet er sekundært. Skift til "En kvinde i en rød kjole går ned ad en brostensbelagt gade i skumringen, gengivet som et oliemaleri". Modellen hører først hovedemnet og først til sidst mediet. Informationsmængden er den samme, men det sidste giver normalt et markant mere præcist resultat.

Tip 9: Brug de ord, som fotografer og instruktører rent faktisk bruger

Dutch angle (hollandsk vinkel), rack focus (fokusforskydning), golden hour (det gyldne lys), overcast daylight (dagslys på en overskyet dag), softbox (softbox), gobo shadow (gobo-skygge), hero shot (hero-optagelse), two-shot (to-personers optagelse), negative space (negativt rum) – disse ord har alle en klar betydning inden for fotografi og film, og der er mange billeder i træningsdataene, der er forsynet med disse ord. Vage følelsesord (vibey, dreamy, epic) er langt svagere signaler for modellen. Artiklen Shot (filmmaking) på engelsk Wikipedia er en god 15-minutters ordliste.


De mest almindelige fejl, som begyndere begår, og hvordan man undgår dem

For at være ærlig har jeg begået alle de følgende fejl. Du vil sandsynligvis også begå dem, men i det mindste kan du hurtigere genkende dem.

Fejl 1: At skrive en prompt på 400 tegn og forvente, at den endelige version bliver perfekt i første forsøg. Billedmodeller er bedre til at håndtere "smalle, iterative" prompts end "kæmpelange, færdigudarbejdede" prompts. Grænsen på 20.000 tegn er ikke målet. De resultater, jeg er mest tilfreds med fra GPT Image 2, har oftest prompts på mellem 40 og 120 ord.

Fejl 2: Gentagne genkørsler med uændret prompt. Hvis man trykker på »Generate« to gange med den samme prompt, bliver resultatet »næsten færdigt«, og selv ved tredje gang er det stadig »næsten færdigt«. Tilfældigheden udforsker kun et lille område; hvis retningen i dette område er forkert, kan det ikke reddes ved at genkøre det flere gange – man er nødt til at ændre prompten.

Fejl 3: Modstridende beskrivelser i søgeordet. I samme beskrivelse står der både »soft dreamy watercolor« (blødt, drømmende akvarel) og »ultra-sharp photorealistic 4K« (ultra-skarpt, fotorealistisk 4K). Det er modstridende. Modellen vil vælge det ene frem for det andet, eller værre endnu: udjævne de to beskrivelser. Tænk dig godt om, før du skriver.

Fejl 4: For høje forventninger til teksten i billedet. Pr. april 2026 er AI-billedmodellers gengivelse af lange tekststykker, især med ikke-latinske tegn, stadig ustabil. Korte tekster på skilte fungerer nogle gange, men længere tekststykker fungerer sjældent. Når teksten udgør den centrale information, er det bedst blot at lægge et tekstlag ovenpå i et hvilket som helst billedredigeringsprogram efter genereringen.

Fejl 5: At uploade et sløret kildebillede til billedgenerering. Modellen bruger detaljegraden i kildebilledet som reference. Et sløret mobilbillede med dårlig belysning vil, uanset hvor meget du i din prompt skriver "klart og skarpt", stadig bevare den slørede effekt i det genererede billede. Vælg så vidt muligt et skarpt kildebillede.

Fejl 6: Lad være med at lægge vægt på hænderne. Hænderne er stadig den mest almindelige kilde til fejl i billedgenerering. Hvis kompositionen kræver, at hænderne fremhæves, må du indstille dig på at skulle male et par ekstra omgange; hvis de ikke er centrale, så lad hænderne være uden for billedet eller hænge naturligt ned.

Fejl 7: Man overser billedformatet, når man uploader billeder til billedgenerering. Det genererede billede følger normalt det oprindelige billedes format. Hvis du vil have et banner, men uploader et lodret selfie, er det som at arbejde imod modellen. Beskær det oprindelige billede til det ønskede format, inden du genererer det.

Fejl 8: At betragte det »første, nogenlunde brugbare billede« som det endelige resultat. Erfarne brugere ser det »nogenlunde brugbare« som udgangspunktet for næste runde. Forskellen mellem »nogenlunde brugbart« og »portfoliostandard« viser sig som regel først ved tredje forsøg, ikke ved det første.

Fejl 9: Man glemmer, at modellen ikke husker noget mellem to genereringer. Medmindre man bruger "billede til billede" og tager den forrige output som udgangspunkt, er hver generering helt ny. Hvis man vil genbruge gamle figurer, skal man gemme den oprindelige prompt eller direkte bruge det forrige billede til kædredigering.


Sådan fungerer GPT Image 2 indvendigt (kortfattet)

Dette afsnit er ikke obligatorisk at læse, men det kan hjælpe dig med at danne dig et realistisk billede af, hvad du kan forvente. GPT Image 2 er et forenklet brugergrænsefladelag, der direkte kalder KIE's to modeller, gpt-image-2-text-to-image og gpt-image-2-image-to-image – disse tilhører familien af diffusionsmodeller og er optimeret til at følge instruktioner og skabe højkvalitetsrealistiske billeder. Hver anmodning gennemgår en godkendelse, koster 12 point, sættes i kø og returnerer en billed-URL.

De få knapper på brugergrænsefladen er sjældent tilsigtede: KIE API'en eksponerer ikke selv disse kontrolelementer, og at tilføje "falske skydere" ovenpå vil kun være vildledende. Alt, hvad modellen kan udføre, udtrykkes gennem prompt-teksten. Hvis du vil forstå princippet bedre, kan du læse Wikipedia-artiklen Diffusion model og OpenAI's forskningsside.


GPT Image 2 har også sine svagheder

En vejledning er ikke en vejledning, hvis man kun fremhæver det positive og ikke nævner det negative. Her er de fælles svagheder ved GPT Image 2 – og faktisk alle de nuværende mainstream-billedmodeller:

  • Præcis gengivelse af brandelementer. Logoer, licenserede figurer og produktemballage kan ikke gengives pålideligt. Den korrekte fremgangsmåde er at generere en komposition og derefter indsætte det rigtige logo.
  • **Streng overensstemmelse med referencematerialet. ** Når en figur skal være fuldstændig ens i flere snesevis af billeder (f.eks. i en tegneserieserie), er identitetsbevarelsen ved billedgenerering allerede meget bedre end ved ren tekst-til-billede-generering, men stadig ikke så præcis som ved træning af LoRA eller 3D-figurbinding, hvor hver enkelt frame er nøjagtig.
  • Anatomi i ekstreme stillinger. Fingre, fødder, tænder, ører og krydsede lemmer er de dele, der lettest går i stykker. Jo tættere kameraet er, jo tydeligere bliver fejlene.
  • Perfekt komposition. Som nævnt ovenfor – det er stadig en kendsgerning.

Her er to yderligere fakta: For det første indebærer spredningsmodeller i sig selv en vis tilfældighed i stikprøveudtagningen – det samme prompt giver forskellige resultater hver gang. Mangfoldighed er en fordel, mens konsistens er en ulempe, hvilket dog kan afhjælpes ved hjælp af kædebaseret redigering, hvor billeder genererer nye billeder. For det andet afspejler modellen fordelingen i træningsdataene, hvilket betyder, at det er sværere at få et præcist resultat med det samme for mindre kendte kulturelle sammenhænge end for populære emner; man må derfor forvente, at der skal flere iterationer til.

En virkelig god arbejdsgang til billedgenerering med AI handler ikke om at bruge én model til alt, men om at lade GPT Image 2 håndtere 80 % af de centrale billedelementer, mens et grundlæggende redigeringsværktøj tager sig af de sidste 20 % af den manuelle finpudsning.


Oversigt på én side: Den komplette proces

Hvis du blot ønsker en version, der kan læses med et enkelt blik ved siden af skærmen:

  1. Åbn GPT Image 2-hjemmesiden og log ind.
  2. Kontroller, at din konto har mindst 12 point.
  3. Vælg tag: Text to Image eller Image to Image.
  4. Billede til billede: Upload et klart kildebillede.
  5. Skriv først en kort, konkret prompt. Hovedmotivet først, kvalitetsordene bagefter.
  6. Generer. Vurder ærligt ud fra tre dimensioner: hovedmotiv, lys og komposition.
  7. Ændr kun én variabel, generer igen og sammenlign.
  8. Gentag trin 6–7, indtil du er tilfreds med resultatet.
  9. Download.

Det var det. Alle genveje, tips og vaner, som er nævnt i denne artikel, er variationer af disse ni trin.

Her er endnu et lille tip: Skriv først din prompt i en teksteditor, og kopier den derefter ind i generatoren. Det gør det nemmere at gemme historikken, ændre rækkefølgen og genbruge faste indledninger som f.eks. "Same person — preserve facial features…". Når du er tilfreds med billedet, skal du kopiere den endelige version tilbage til din prompt-log. Denne lille ekstra indsats forhindrer, at dine bedste prompts går tabt, når du opdaterer browseren.


Ofte stillede spørgsmål

Hvor mange point giver hvert billede i GPT Image 2?

Uanset om det drejer sig om tekst-til-billede eller billede-til-billede, er prisen den samme: 12 point pr. billede. Der er ingen ekstra gebyrer for »længere beskrivelser«, »større output« eller »højere billedkvalitet« – disse muligheder findes slet ikke. Point købes som en del af et abonnement på hjemmesiden, og nye konti modtager automatisk prøvepoint.

Skal man installere noget for at kunne bruge GPT Image 2?

Det er ikke nødvendigt. Alt foregår i browseren. Der er ingen desktop-app, ingen browserudvidelser, og du behøver heller ikke selv at ansøge om en API-nøgle til webgrænsefladen. Du skal blot have en moderne browser og en e-mailadresse.

Hvor lang må en prompt være?

Både tekst-til-billede- og billede-til-billede-promptindtastninger understøtter op til 20.000 tegn. Når det er sagt, er de mest effektive prompts i praksis oftest mellem 40 og 200 ord. For lange prompts kan let udvande signalet eller endda skabe modsigelser; velstrukturerede, korte prompts er som regel mest effektive.

Kan man uploade flere referencebilleder på én gang?

Funktionen "Generer billede ud fra billede" understøtter kun ét kildebillede ad gangen. Hvis du ønsker at kombinere flere referencer (f.eks. "denne person + stilen på dette tøj"), kan du bruge kædegenerering: Lav først et mellembillede, og brug derefter det som kildebillede til næste gang, hvor du tilføjer en ny prompt og fortsætter med at redigere. Kædegenerering giver ofte et mere rent resultat end at generere et billede ud fra en enkelt kompleks prompt.

Understøtter GPT Image 2 angivne opløsninger eller billedformater?

Den nuværende prisfastsættelse er ensartet, og KIE API'en indeholder ikke selv nogen knapper, hvor brugeren kan vælge størrelsesforhold eller opløsning. Det genererede billede følger normalt det oprindelige billedes form – hvis der derfor er behov for et bestemt størrelsesforhold, skal det oprindelige billede først beskæres, før det genereres.

Må de genererede billeder bruges til kommercielle formål?

Brugsrettighederne er underlagt de servicevilkår, der er angivet i sidens fodnote. Disse vilkår er gældende. I praksis har de fleste brugere frem til 2026 anvendt det til marketingidéer, indhold til sociale medier, prototyper og personlige kreative projekter. Inden du bruger et billede i et produkt, der genererer indtægter, skal du først læse de vilkår, der er gældende på det pågældende tidspunkt.

Hvordan sikrer man, at den samme figur ser ens ud på flere billeder?

Brug billede-til-billede og skriv tydeligt en klausul om identitetsbevarelse i starten af prompten (”Samme person — bevar ansigtstræk, hårfarve og hudfarve”). Brug derefter hvert output som kildebillede til det næste billede, og fortsæt genereringen med en ny scenebeskrivelse. Denne metode er ikke så præcis som en specielt trænet karakter-LoRA, men langt bedre end at starte forfra med tekst-til-billede hver gang.

Hvad er den hurtigste måde at lære at bruge GPT Image 2 på?

Brug enkle tekst-til-billede-promptord i de første 12 til 20 genereringer for at få et godt indblik i modellens "standardadfærd"; derefter kan du gå videre til billede-til-billede-generering og starte med et rent udgangsbillede. Følg vejledningen på forrige side, og de fleste brugere vil kunne klare opgaven uden større problemer efter ca. en times seriøs øvelse.

Hvorfor ligner mine resultater slet ikke søgeordet?

Der er tre almindelige årsager: For det første er kvalitetsordene placeret forrest, mens hovedindholdet er gemt bagved – flyt hovedindholdet helt frem; For det andet er nøgleordene modstridende (f.eks. "akvarel" og "fotorealistisk" side om side) – vælg ét medie; for det tredje bruges der kun følelsesord ("smuk", "overvældende") uden konkrete navneord – tilføj konkrete objekter, lysretning og billedsprog.


Er du klar til at komme i gang?

Nu har du fået en komplet arbejdsgang, en række brugbare prompt-eksempler, en liste over faldgruber, du skal undgå, samt en hurtigoversigt. Der er kun én ting tilbage at gøre: Åbn generatoren, og brug dine første 100 point på at finde ud af, »hvilke prompts du selv foretrækker«. Dette trin kan ingen gøre for dig.

Åbn GPT Image 2, og generer dit første billede →

Hvis du vil læse mere:

Denne artikel er udgivet af GPT Image 2 Team. Pr. april 2026 faktureres begge modeller ens med 12 point pr. billede. Hvis der sker ændringer i fremtiden, vil vi opdatere denne artikel og angive det i opdateringsloggen.

GPT Image 2-teamet

GPT Image 2-teamet

Generering af billeder og videoer ved hjælp af AI