Hvad er GPT Image 2? Den komplette guide til begyndere i 2026

Apr 22, 2026

TL;DR

GPT Image 2 er et AI-billedgenereringsværktøj, der blev lanceret i 2026. Det er baseret på de to modeller gpt-image-2-text-to-image og gpt-image-2-image-to-image fra KIE-platformen og kan omdanne tekstbeskrivelser eller referencebilleder til færdige billeder i fotografisk kvalitet. Det har en fast pris på 12 point pr. billede, med en maksimal længde på 20.000 tegn for tekstprompter, og er skabt til kreative, der ønsker professionel billedkvalitet, men ikke gider at rode med ComfyUI eller vil have deres budget tømt af et abonnementssystem. Prøv GPT Image 2 gratis →


Portræt under neonlys genereret med GPT Image 2, hvor hudens tekstur og stoffets detaljer fremstår naturlige
Genereres på én gang uden efterbehandling: GPT Image 2 behandler hudtekstur, stofstruktur og konturlys samtidigt.

Hvad er GPT Image 2 egentlig?

GPT Image 2 er et AI-baseret billedgenereringsværktøj, der omdanner beskrivelser på naturligt sprog, referencebilleder eller en kombination af begge dele til færdige billeder. Bag produktet ligger to modeller, der hostes af KIE: gpt-image-2-text-to-image står for konvertering fra ren tekst til billeder, mens gpt-image-2-image-to-image bruges i situationer, hvor et eksisterende billede skal redigeres. Begge modeller er tilgængelige via samme webportal og dækker de to mest almindelige behov hos designere, marketingfolk og influencere: at omdanne ideer til billeder eller foretage kontrollerede ændringer af eksisterende billeder.

Man kan betragte det som en direkte efterfølger til den »GPT-lignende billedworkflow«, som DALL-E 3 og GPT-4o har banet vejen for, men det er målrettet mod et meget konkret problem i 2026: Små teams har brug for billeder, der ligner professionelle studiebilleder, som skal leveres på få sekunder, og som kan afstemmes med regnskabet ved månedens afslutning. GPT Image 2 løser disse tre udfordringer på én gang. Uanset opløsning eller billedformat gør den ensartede pris på 12 point pr. billede det ekstremt nemt at beregne omkostningerne; en promptkapacitet på 20.000 tegn betyder, at selv de længste og mest strukturerede kreative briefs kan indsættes uændret, uden at man behøver at skære vigtige kreative retninger væk for at nå op på det krævede antal tegn.

Selve navnet afspejler også hele kategoriens modningsproces. Den første generation af "GPT-lignende billedværktøjer" var af eksperimentel karakter, og kvaliteten af resultaterne svingede mellem det bizarre og det imponerende. GPT Image 2 repræsenterer 2026-niveauet: stabil billedkvalitet i fotografisk kvalitet, anstændig gengivelse af tekst i billeder samt en dialogbaseret promptoplevelse, der føles som "at kommunikere med en samarbejdspartner" snarere end "at trække i en spilleautomat". Dette er ikke en betaversion, men en generator, der kan tages direkte i brug, og som sammen med hele vores serie af AI-billedværktøjer – billedpromptgenerator, selvstændig tekst-til-billede-side, billede-til-billede-editor – udgør et komplet, lukket kredsløb, der giver dig mulighed for at vælge den mest passende indgang i henhold til opgavens karakter.

Hvem har lavet den, og hvor står modellen?

Selve genereringsmodellen leveres af KIE, en modelhostingplatform, der via en hosting-API stiller gpt-image-2-serien af modeller til rådighed for eksterne brugere. Oven på disse API'er har vi bygget et webinterface, en point-wallet, en historik over prompt-ord og et kontosystem. Denne arbejdsfordeling er afgørende: Den billedkvalitet og det stilistiske fingeraftryk, du ser, er baseret på KIE's implementering, mens genereringshastighed, oppetid og produktoplevelse er vores ansvar. Så når nogen spørger: "Hvad er GPT Image 2?", er det korteste svar: KIE leverer modellerne, vi leverer produktet.

Pr. april 2026 er de to ovennævnte funktioner de eneste genereringsfunktioner, der er tilgængelige i brugergrænsefladen. Vi har ingen separat knap til "høj opløsning", ingen fane til "batch-varianter" og heller ingen separat pensel til "lokal gentegning" – sidstnævnte er faktisk blevet erstattet af kommandoen "generer billede med tekst". Det er bevidst, at vi holder produktets overflade så minimalistisk. Mange billedredigeringsværktøjer er fyldt med otte til ti funktionsknapper, hvoraf de fleste næsten aldrig bliver brugt; ved at fjerne dem kan modellens virkelige styrker – forståelsen af prompter og den fotografiske realisme – i stedet bære hele produktoplevelsen.

Hvorfor er de to tilgange – »tekst til billede« og »billede til billede« – tilstrækkelige?

Enhver kreativ opgave kan i sidste ende koges ned til et af to spørgsmål: enten »Lav et billede af X« eller »Rediger dette billede i retning af Y«. Tekst-til-billede løser det første: Du beskriver, hvad du ønsker, klikker på »Generer«, og får et billede, der ikke eksisterede før. "Billede til billede" løser det sidste: Du uploader et billede og fortæller modellen med tekst, at den skal skifte baggrund, ændre belysningen, tilføje produkter på skrivebordet eller omdanne skitsen til et oliemaleri, hvorefter den returnerer en variant, der respekterer det originale billedes struktur. Disse to modeller kombineret med 20.000 tegn til prompt-tekst er tilstrækkeligt til at dække langt de fleste scenarier inden for redigering af illustrationer, marketingkoncepter, produktvisualisering, videocover og konceptdesign. Resten er blot et spørgsmål om øvelse.

Sådan fungerer GPT Image 2

Set fra brugerens perspektiv er det blot et spørgsmål om at indtaste en prompt og trykke på en knap for at generere et billede. Men set fra ingeniørens perspektiv udfører systemet faktisk en hel del arbejde i de få sekunder, der går fra man trykker på knappen, til billedet vises. GPT Image 2 anvender en moderne diffusionsbaseret billedmodel – ligesom Midjourney, Stable Diffusion 3 og DALL-E 3 – men dens tekstkodning og træningsstrategi er specifikt optimeret til lange og konkrete prompttekster. Den forskel, der i sidste ende er mest mærkbar på billedet, er "overholdelsen" af instruktionerne. Tidligere modeller ville udjævne detaljerne ved en prompttekst på 500 tegn, mens gpt-image-2 behandler promptteksten som en specifikation, der skal udføres.

Princippet bag diffusionsmodeller er at lære den »omvendte proces af støjtilføjelse«. Under træningen tilføjes der gentagne gange tilfældig støj til det originale billede, indtil det ikke længere kan skelnes fra ren støj; netværket lærer trin for trin at fjerne støjen på baggrund af en tekstbeskrivelse. Under genereringen vendes processen om: Man starter med ren støj og lader promptordene styre støjfjernelsesforløbet, så det konvergerer mod et plausibelt billede, der matcher teksten. Hvis du vil se de matematiske detaljer, kan du læse Wikipedia-artiklen om diffusionsmodeller, Hvis du vil se den tekniske tilgang til teksttilpasning, kan du læse OpenAI's officielle DALL-E 3-teknologirapport. Disse to artikler er de teoretiske kilder, som denne generation af billedmodeller bygger på.

Den største forskel mellem gpt-image-2 og almindelige diffusionsmodeller er dens prompt-koder. Det gamle system anvendte en simpel CLIP-tekstkoder, som var god til at fange hovedindholdet, men ofte svigtede i detaljer som rækkefølge, tælling og rumlige relationer. gpt-image-2 bruger en encoder på sprogmodelniveau, der kan forstå sætninger med rumlige begrænsninger, såsom "tre kaffekopper til venstre i billedet, en rød notesbog til højre, og varmt morgenlys strømmer ind gennem vinduet bagved". De faktiske resultater bekræfter dette: Nøjagtigheden for rumlig placering, antal objekter og tekst indlejret i billedet (f.eks. "skiltet siger 'OPEN'") er betydeligt højere end for to år siden.

Skema over arbejdsgangen i GPT Image 2: Lange prompter sendes først gennem en sprogkoder og derefter videre til et diffusion-støjfjernelsesnetværk
Når briefen først sendes gennem en sprogmodel og derefter videre til et diffusionnetværk, er det netop her, at nøglen til, at en lang brief kan udføres fuldt ud, ligger.

Tushengtu følger en anden vej

Tekst-til-billede starter med ren støj, mens billede-til-billede starter med det foto, du uploader. Modellen tilføjer en vis mængde støj til det originale billede – typisk med en forstyrrelsesgrad på 30 % til 70 % – og fjerner derefter støjen ud fra de angivne promptord. Outputtet styres af to drejeknapper: Ved lav støj bevares det originale billede næsten fuldstændigt, hvilket er velegnet til at retouchere portrætter eller finjustere farvetoner; ved høj støj udslettes det originale billede i høj grad, og de nye strukturer styres af promptordene, hvilket er velegnet til stiloverførsel eller til at "omdanne en skitse til et oliemaleri".

GPT Image 2 har gemt disse to indstillinger i promptens formulering. Hvis du siger »Behold ansigtet uændret, men skift kun baggrunden til en regnfuld gade i Tokyo om natten«, vælger den lav støj; hvis du siger »Omgør det til et impressionistisk oliemaleri«, skifter den til høj støj. Det er netop modellens evne til at forstå intentionen, der gør det muligt at holde brugergrænsefladen så overskuelig – den samme API-grænseflade udfører helt forskellige handlinger afhængigt af, hvad du siger.

Hvorfor tager genereringen så lang tid?

Et billede returneres normalt på 4 til 15 sekunder. Inferens i diffusionsmodellen kræver 20 til 50 trin til støjfjernelse, hvor hvert trin gennemløber et netværk med flere milliarder parametre i en fremadgående transmission. Et enkelt trin tager kun få millisekunder på moderne acceleratorer, og den samlede tid optages hovedsageligt af køtid, netværksretur og den første transmission i tekstkoderen. Dette kan ikke optimeres på produktniveau, men det forklarer, hvorfor genereringen af og til er lidt langsommere – det svarer næsten altid til spidsbelastninger i KIE-inferensclusteret og har intet med dig at gøre.

Kernekompetencer og reelle konkurrencefordele

I løbet af de seneste måneder har jeg genereret flere tusinde billeder med gpt-image-2, der dækker alt fra præsentationsmateriale og blogforsider til produktprototyper og miniaturer til sociale medier. Der er tre funktioner, der adskiller det markant fra de værktøjer fra 2024-generationen, som folk er vant til at bruge.

Det første punkt er gennemførelseskraften ved lange briefs. Indsæt en kreativ brief på 600 ord – scene, motiv, tøj, belysning, vinkel, stemning – og allerede ved første generering kan de fleste nøglepunkter gengives. For 18 måneder siden var det ikke muligt. En brief af den længde ville få DALL-E 3 til at miste overblikket, og Stable Diffusion 1.5 ville begynde at finde på ting. GPT Image 2 behandler briefen som en specifikation; selv hvis der lejlighedsvis mangler en detalje, er den almindelige rettelse blot at flytte den pågældende linje længere frem eller fremhæve den med fed skrift, uden at det er nødvendigt at omskrive hele teksten.

Det andet punkt er fotorealistisk naturtrohed og rene højlys. Det, der lettest afslørede, at billederne stammede fra AI i 2022, var hud med et plastisk udseende og forkert placerede spejlreflekser. gpt-image-2 kan korrekt håndtere sub-surface scattering i huden, den bløde udtoning fra softbokse samt kromatisk aberration fra objektiver med stor blændeåbning – resultatet er så overbevisende, at det er svært for et ikke-professionelt publikum at genkende det som AI ved første øjekast. Det er ikke perfekt. Ud af femten billeder er der måske ét, hvor hænderne ser lidt mærkelige ud, og i ekstremt nærbilleder af mekaniske ure kan tandhjulene se lidt underligt ud. Men det overordnede indtryk er allerede, at det ligner noget, der er taget i et fotostudie.

Det tredje punkt er gengivelse af tekst i billeder. I den første generation af diffusionsmodeller var det næsten umuligt at få forståelig tekst med i et billede. GPT Image 2 fungerer ret pålideligt med korte tekster: gadeskilte, etiketter, bogomslag, mærkenavne, datoer, korte slogans og numeriske mærker kan alle gengives stabilt. Lange afsnit forvandles stadig til noget, der ligner latin-lignende voluminøs tekst, så brug det ikke til at generere hele siders tekst, men en overskrift på tre til fire ord på en plakat er ikke længere noget problem.

GPT Image 2 har genereret tre billeder af det samme motiv med forskellige prompter, hvilket viser konsistensen i personernes udseende
Den samme persons opførsel under tre forskellige omstændigheder: Personens karaktertræk forbliver de samme i studiet, på gaden og i indendørs scener.

Hvordan er stiludvalget?

De fleste sammenlignende artikler gider ikke teste stilbredden, men det er netop her, GPT Image 2 virkelig skiller sig ud. Filmfotografi, redaktionelle illustrationer, flad vektorgrafik, 3D-produktrendering, oliemaleri, akvarel, anime, pixelkunst, tekniske skitser – alle disse stilarter kan modellen gengive uden at overfylde med stil-tokens. Hvis man beskriver det æstetiske udtryk med menneskelige ord, f.eks. "akvarel på koldpresset papir med synlige blyantstriber", kan den levere det tilsvarende billede. I modsætning til Midjourney, hvor hele subkulturen er baseret på at huske referencetekster, er oplevelsen her kontrastfuldt enkel: Man siger bare, hvad man vil have.

Fordelene ved billedformat, opløsning og ensartet prisfastsættelse

Her har produktet truffet et meget bevidst valg: GPT Image 2 opkræver ikke ekstra for 4K, og der er heller ingen merpris for lodrette billeder. Hvert billede koster 12 point, uden undtagelse. Det lyder måske som et marketingtrick, men det vil faktisk ændre din arbejdsmåde. Du vil holde op med at komprimere promptteksten igen og igen for at spare point, og i stedet generere frit, smide 80 % væk og beholde de 20 %, der virkelig rører dig. Over en hel måned vil den produktivitetsforøgelse, som denne ændrede tankegang medfører, være noget, som værktøjer, der fakturerer efter variabler, ikke kan give dig.

Hvad det ikke gør

GPT Image 2 genererer kun statiske billeder og er ikke et animationsværktøj. For at få billedet til at bevæge sig skal man bruge modeller til tekst-til-video eller billede-til-video. Det er heller ikke et vektorgenereringsværktøj; output er rasterbaserede WebP/PNG-filer; man skal stadig bruge Illustrator til at lave logoer. Det er heller ikke et redigeringsværktøj med placeholdere, hvor man kan markere et område og genopbygge det separat, som man kan med Photoshop Generative Fill – det tætteste alternativ er at bruge beskrivende prompts til at generere billeder ud fra tekst, hvilket er tilstrækkeligt i de fleste tilfælde.

Hvem er GPT Image 2 bedst egnet til?

Den hurtigste måde at afgøre, om et værktøj passer til dig, er at se, om du passer ind i en af kategorierne. I løbet af det seneste kvartal er jeg gentagne gange stødt på følgende fem typer personer i brugerdata og interviews.

Enmandsmarkedsføring i SaaS-virksomheder med 5 til 50 medarbejdere. Denne person skriver blogindlæg, udsender nyhedsbreve, udvælger originale billeder og laver hvert eneste billede til sociale medier. Virksomheden har ingen fastansat designer og har heller ikke tid til at hyre en freelancer til et enkelt blogindlæg. Han har brug for 20 billeder om ugen, der alle skal have samme stil, og hvert billede skal være klar på under 10 minutter – samtidig skal de se ud som om de stammer fra samme redaktionelle univers. GPT Image 2 passer næsten perfekt til denne profil: Den faste pris gør det muligt for ham at generere 200 billeder om måneden og kun beholde de 50 bedste, uden at økonomiafdelingen rynker på næsen over regningen.

Uafhængige spiludviklere eller app-udviklere. Denne person har i forberedelsesfasen brug for skitser af helte, kortillustrationer, ikonskitser og referencemateriale. Han bruger normalt ikke AI-genererede billeder direkte i spillet, men anvender dem som visuelle retningslinjer, som derefter uddybes af menneskelige grafikere. En prompt på 20.000 tegn er en velsignelse for ham, da briefen til spildesignet i forvejen er lang – verdensbillede, stemning og farvepalet klistres ind, genereres og itereres.

Indholdsskabere på YouTube, TikTok og Substack. De har brug for miniaturer, der fanger opmærksomheden, og som hurtigt kan tilpasses, da platformens baggrundsdata udgør deres feedbackmekanisme. En »coverfabrik«, der på en halv time kan levere 30 forskellige miniaturer, hvorfra de kan vælge tre, er netop den opgave, som tekst-til-billede-teknologi er bedst egnet til.

Fire typiske brugerprofiler for GPT Image 2: marketingfolk, uafhængige udviklere, indholdsskabere og undervisere
De fire mest almindelige brugerprofiler i brugsdataene: marketinggeneralister, uafhængige udviklere, indholdsskabere og undervisere.

Undervisere eller forfattere af teknisk dokumentation. Denne gruppe er lidt af en overraskelse. Lærere, kursusudviklere og dokumentationsforfattere udgør en stadig større del af brugerne, og de har brug for skemaer, visualiseringer af abstrakte begreber samt lejlighedsvise forsidebilleder til deres præsentationer. Modelens evne til at håndtere tekst og struktureret komposition i billeder er særligt nyttig her – et tydeligt mærket skema over vandkredsløbet, en stiliseret illustration af et neuralt netværk, et muntert baggrundsbillede til tredje uge af Python-kurset. Da promptteksten kan være lang, kan de indarbejde selve undervisningsindholdet i promptteksten, hvilket giver et resultat, der ligger tættere på virkeligheden end en generel "teknologisk fornemmelse".

Frilansdesignere eller kreative afdelinger i reklamebureauer. Fagfolk bruger det som en moodboard-accelerator: I stedet for at bruge en hel eftermiddag på Pinterest for at finde inspiration, kan man på samme tid generere 40 forskellige retninger, udvælge de tre stærkeste som udgangspunkt og derefter færdiggøre det endelige produkt manuelt. Med 12 point pr. kort koster udforskningsfasen af et projekt mindre end en middag med kunden.

Hvem er det ikke egnet til?

Hvis du har brug for pixelpræcis kontrol over bestemte områder af et billede – den slags finjustering med pensel og maske, som man kender fra Photoshop Generative Fill – er GPT Image 2 ikke det mest velegnede værktøj. Det er heller ikke egnet, hvis du har brug for vektorudskrifter i logo-kvalitet. Hvis du har brug for, at generatoren kører offline eller på et lokalt intranet, har vi pr. april 2026 kun KIE's hostede API-løsning til rådighed og ingen selvhostede muligheder. Hvis din arbejdsgang går ud på at sikre konsistens for den samme karakter i snesevis af tegneserier, vil specialværktøjer til karakterkonsistens stadig være at foretrække frem for generiske generatorer.

Priser, adgang og hvordan man kommer i gang

Priserne er meget rimelige: 12 point pr. billede. Der er ingen tillæg for opløsning, ingen ekstra pris for stående eller liggende format og ingen »premium«-knap, der i al hemmelighed fordobler regningen. Du køber point, du bruger 12 point pr. billede, og det er let at se, hvor mange der er tilbage i din tegnebog. Sammenlignet med traditionelle billedbanker er det meget intuitivt: Licensgebyret for et enkelt kvalitetsbillede på en mainstream billedbank svarer omtrent til omkostningerne ved at generere 15 til 80 billeder her, og du får ikke engang de rigtige eksklusive rettigheder.

Det tager ikke mere end to minutter at komme i gang. Gå til Hjemmeside for at registrere dig – når du logger ind, er du allerede i selve generatoren. Skriv et nøgleord i indtastningsfeltet, eller upload først et referencebillede for at generere et billede, og klik derefter på »Generer«. Resultatet vises direkte på siden og gemmes automatisk i din kontohistorik. Download standard WebP, eller højreklik for at hente originalbilledet i fuld opløsning. Der er ingen desktop-version, der skal installeres, ingen plugins, der skal sideloades, og ingen Discord-grupper, der skal tilføjes. En browser er nok, og enheden skal blot understøtte moderne GPU-sammensætning (dvs. stort set alle maskiner fra 2019 og frem).

Hvis du vil sammensætte flere genereringer til et større kreativt projekt – for eksempel en serie illustrationer i samme stil til en blogserie – er det en god idé først at skrive en kort beskrivelse af karaktererne eller stilen i Billedpromptgeneratoren og derefter indsætte denne beskrivelse i hovedgeneratoren og gentage processen flere gange. Denne arbejdsgang har vi beskrevet mere detaljeret i GPT Image 2-brugervejledning og GPT Image 2-promptguide, hvor sidstnævnte fokuserer på, hvilke strukturer og adjektiver der kan styre modellen sikkert i den retning, du ønsker.

Hvordan bruger man egentlig sine point?

Point trækkes i det øjeblik, genereringen finder sted, ikke når du indsender søgeordene. Hvis genereringen mislykkes på grund af en kortvarig fejl i backend-systemet, tilbageføres pointene automatisk; hvis genereringen lykkes, men resultatet ikke lever op til dine forventninger, tæller det som én brug – modellen har jo udført opgaven. I praksis er sandsynligheden for at ramme rigtigt ved første forsøg høj nok til, at denne regel ikke føles urimelig. I mine daglige marketingbilleder er "tilfredshedsprocenten" cirka én gentagelse for hver fire prompt-ord, og 12 point pr. gang er slet ikke et tal, der får en til at rynke panden ved månedens afslutning.

Kommerciel brug og ophavsret

Indtil april 2026 er det tilladt at anvende billeder genereret af betalende brugere til kommercielle formål. Lovgivningen om ophavsret til AI-genererede billeder er dog endnu ikke helt afklaret i alle jurisdiktioner – det amerikanske ophavsretsbureau (Copyright Office) betragter i sine nuværende retningslinjer rene AI-output som manglende menneskelig kreativitet og dermed ikke beskyttet. I de fleste markedsførings- og redaktionelle sammenhænge er dette ikke afgørende, men hvis du skal lave et logo eller et varemærke, bør du konsultere en advokat og lade en menneskelig designer udføre det endelige arbejde. US Copyright Office's AI-side følger udviklingen i den aktuelle politik og er værd at gemme i dine bogmærker.

Begrænsninger og svagheder: Hvad er det ikke så godt til?

De læsere, der er kommet så langt, fortjener en ærlig redegørelse. Ingen billedmodel er perfekt, og at lade som om den er det, er at lægge en fælde for deadline om to uger – hvis modellen pludselig svigter, er det dig, der må rydde op. Her er nogle typiske situationer, hvor jeg har set GPT Image 2 gå galt.

Hænder og små kropsdele. Modellen er betydeligt bedre end 2024-generationen, men der opstår stadig problemer med hænder i nærbilleder cirka en gang for hver ti til femten billeder. Fingrene klæber sammen, der dukker en sjette finger op, eller tommelfingeren bøjer i den forkerte retning. Hvis hånden blot er en detalje i baggrunden, lægger ingen mærke til det; men hvis det er et hovedbillede, hvor håndfladen vender mod kameraet, bliver du nødt til at genberegne det flere gange. En meget praktisk måde at undgå dette på er at skrive "ingen hænder i billedet" eller "hænderne hænger naturligt ned" direkte i promptteksten. Modellen vil normalt elegant omgå problemet.

Lang tekst i billedet. Korte sætninger er ikke noget problem, og det samme gælder skilte, etiketter og magasinforsider med få ord. Men det er langt fra nok til en hel tekstblok. Hvis du ønsker et "skærmbillede af en e-mail", skal du formatere teksten i dit designværktøj og derefter indsætte den i billedet. Du kan ikke forvente, at modellen genererer selve brødteksten.

Identiteten er fuldstændig identisk, når der kun bruges ét referencebillede. Bild-to-Bild bevarer motivets overordnede træk, men det er ikke et ansigtskloningsværktøj. Hvis du har brug for, at »den helt samme person« optræder på 20 billeder, vil der opstå en let identitetsforskydning omkring det femte eller sjette billede. Løsningen er en arbejdsgang med flere referencebilleder, hvilket er et område, der udvikler sig meget hurtigt, og som vi vil behandle nærmere i en separat artikel. Til en mindre kampagne bestående af et hovedbillede og et par supplerende billeder er billedgenerering fuldt ud tilstrækkeligt.

Side om side-sammenligning af GPT Image 2 og to andre AI-billedgeneratorer fra 2026 baseret på samme prompt
Resultaterne for den samme prompt på tre forskellige modeller: Deres respektive styrker og svagheder fremgår tydeligt.

Indholdspolitik og sikkerhedsfiltrering. Visse kategorimodeller afviser: offentlige personer med rigtige navne, voksenindhold og følsomme situationer, der involverer børn. Filtreringssystemet kan i sjældne tilfælde fejlagtigt blokere helt harmløse søgeord, fordi visse ord udløser nøgleordsmatchning. Hvis dette sker, skal du prøve igen med en anden formulering. De fleste fejlblokeringer ophæves, når du for tredje gang udtrykker det samme med andre ord.

Stilistisk konsistens ved store mængder. Hvis du genererer 50 billeder til en brands stilguide, kan du forvente, at 45 af dem ser helt ens ud, mens de resterende 5 fremstår som afvigelser, der ligner noget fra en helt anden model. Løsningen er enten at generere disse 5 billeder igen med mere præcise prompt-ord, eller at acceptere en vis stilistisk spredning. Store brands, der har meget strenge stilkrav, har stadig brug for en menneskelig art director til at gennemgå det endelige udkast – hvilket nok er en nødvendighed for ethvert seriøst brand.

Responstid i spidsbelastningsperioder. Genereringstiden bliver markant længere mellem kl. 14:00 og 22:00 UTC, hvilket svarer til overlapningen mellem arbejdstiderne i USA og Europa. På en normal dag tager det 4 til 8 sekunder at generere et billede, men i spidsbelastningsperioder kan det tage 15 til 30 sekunder. I meget sjældne tilfælde kan det ske, at det første forsøg går i timeout, mens det andet lykkes. Dette er den objektive virkelighed for GPU-delt inferens i 2026.

"Det er ikke magi" – en tillidserklæring

Denne type værktøj er i bund og grund en sandsynlighedsfunktion defineret på en enorm træningsfordeling. Den er meget stærk til interpolation – den genererer noget, der ligner træningsdatas fordeling. Den er derimod relativt svag til ekstrapolering – den genererer ting, der aldrig har eksisteret før. Hvis du beder den tegne "en kat", klarer den det til fulde; hvis du beder den tegne "et biomekanisk rumvæsen, der aldrig har optrådt i nogen science fiction-værker", får du ofte et "biomekanisk rumvæsen, der ligner noget, der har optrådt i science fiction", fordi det er det eneste, der findes i træningssættet. Hvis du finjusterer forventningerne, vil den give dig feedback.

Ofte stillede spørgsmål

Hvad er GPT Image 2 egentlig? Forklar det med et enkelt sætning

GPT Image 2 er en AI-billedgenerator fra 2026, der er baseret på KIE's gpt-image-2-serie af modeller. Den omdanner tekst og referencebilleder til fotografisk kvalitetsbilleder til en fast pris på 12 point pr. billede. Den understøtter både tekst-til-billede og billede-til-billede, med en maksimal længde på 20.000 tegn i prompten, og udmærker sig især ved lange, strukturerede briefs.

Er det det samme som DALL-E 3 og GPT-4o-billedgenerering?

Nej. GPT Image 2 drives af gpt-image-2-modelfamilien, der hostes af KIE, og bygger konceptuelt videre på "GPT Image"-traditionen, men kildekoden er ikke den samme. Navnet afspejler slægtskabet: Det viderefører den metodologi med lange prompter og sprogindbyggede funktioner, som DALL-E 3 var banebrydende for, men eksisterer som et selvstændigt system, der er udviklet og hostet på KIE's infrastruktur.

Hvad koster GPT Image 2?

Hvert billede giver 12 point, uanset opløsning, billedformat og genereringsmetode (tekst-til-billede eller billede-til-billede). Der er ingen skjulte tillægsgebyrer for »høj opløsning« eller »premium« – for der findes slet ingen såkaldt premium-tilstand; standardindstillingen er altid fuld billedkvalitet.

Kan de genererede billeder bruges til kommercielle formål?

Ja, billeder genereret af brugere af den betalte version er godkendt til kommerciel brug. Du er selv ansvarlig for indholdet af prompt-teksten og den efterfølgende anvendelse – værktøjet giver ikke tilladelse til brug af varemærkebeskyttede karakterfigurer på dine vegne. Hvad angår logoer og varemærker, bør du lade en menneskelig designer stå for det endelige resultat, da amerikansk ophavsret i øjeblikket betragter ren AI-output som ubeskyttet, hvis der ikke er tale om menneskelig kreativitet.

Hvor lang må en prompt være?

20.000 tegn svarer omtrent til 3.000 engelske ord, hvilket er længere end langt de fleste kreative briefs. Den faktiske "effektive" længde på en prompt er langt kortere, typisk mellem 300 og 600 ord – hvis den er længere, begynder modellen at give gennemsnitlige svar i stedet for præcise svar. Denne øvre grænse er indført for at sikre, at lange, strukturerede indtastninger (fuldstændig scenebeskrivelse + liste over kameravinkler + stilistiske anmærkninger) ikke bliver afbrudt.

Hvordan bruger man "Billede genererer billede"?

Upload et billedfiler, og beskriv i beskrivelsen, hvad du ønsker at ændre. Ved beskrivelser, der angiver mindre ændringer, f.eks. »Skift baggrunden til en gylden strand ved solnedgang«, bevares billedets hovedmotiv stort set uændret. Ved beskrivelser, der angiver større ændringer, f.eks. »Tegn billedet om i 1960'ernes tegneseriestil«, vil billedet blive fortolket på en helt ny måde. Det samme API-grænseflade vurderer ud fra din sproglige hensigt, om der skal foretages mindre eller større ændringer.

Hvilket format har de genererede billeder?

WebP er standardformatet, som understøtter tabsløs komprimering og har god browserkompatibilitet. Hvis de efterfølgende værktøjer ikke understøtter WebP, kan du konvertere filen til PNG eller JPEG i ét trin ved hjælp af en browserbaseret eller desktop-konverter. Den endelige opløsning afhænger af det billedformat, der er angivet i kommandoen.

Er der en gratis kvote?

Når du opretter en ny konto, får du startpoint, som er nok til at generere et par billeder, så du kan prøve tjenesten, før du beslutter dig for, om du vil betale. Når du har brugt dem, kan du købe flere point på din konto. Brugere, der køber for første gang eller kommer ind via bloggen, kan af og til se ekstra kampagnepoint; de aktuelle tilbud afhænger af de kampagner, der vises på forsiden.

Er du klar til at komme i gang?

GPT Image 2 løser et meget konkret problem i 2026: hurtig, billig og forudsigelig generering af statiske billeder i høj kvalitet uden besvær med komplicerede værktøjer. De to tilgængelige tilstande – tekst-til-billede og billede-til-billede – dækker de fleste kreative arbejdsgange, og den ensartede pris på 12 point gør det nemt at holde styr på udgifterne.

Brug GPT Image 2 til at generere nu →

Hvis du vil dykke lidt dybere ned, er vores praktiske vejledning Sådan bruger du GPT Image 2 det bedste sted at starte. Her finder du tips til promptformuleringer, almindelige faldgruber samt en eksempelproces til opbygning af billedkollektioner med ensartet stil. Hvis du vil øve dig i at skrive prompts ligesom du øver dig i at skrive, kan du læse GPT Image 2 Prompt Guide, som gennemgår de strukturer og modifikatorer, der kan styre modellen sikkert i den retning, du ønsker.

GPT Image 2-teamet

GPT Image 2-teamet

Generering af billeder og videoer ved hjælp af AI