O que é o GPT Image 2? Guia completo para principiantes em 2026

Apr 22, 2026

TL;DR

O GPT Image 2 é uma ferramenta de geração de imagens por IA lançada em 2026, baseada nos modelos gpt-image-2-text-to-image e gpt-image-2-image-to-image da plataforma KIE, capaz de transformar prompts de texto ou imagens de referência em imagens finais com qualidade fotográfica. Apresenta um preço único de 12 pontos por imagem, com prompts de até 20 000 caracteres, e foi concebida especialmente para criadores que desejam obter imagens de qualidade profissional, sem ter de lidar com o ComfyUI e sem que o orçamento seja esgotado por um sistema de assinatura. Experimente o GPT Image 2 gratuitamente →


Retrato sob luzes de néon gerado com o GPT Image 2, com textura da pele e detalhes dos tecidos muito naturais
Criação única, sem necessidade de retoques: o GPT Image 2 processa simultaneamente a textura da pele, a textura dos tecidos e a iluminação de contorno.

O que é, afinal, o GPT Image 2?

O GPT Image 2 é um produto de geração de imagens por IA que transforma descrições em linguagem natural, fotografias de referência ou uma combinação de ambas em imagens finais utilizáveis. Por trás do produto estão dois modelos hospedados pela KIE: o gpt-image-2-text-to-image, responsável pela conversão de texto puro em imagem, e o gpt-image-2-image-to-image, utilizado em cenários de modificação que têm como ponto de partida uma imagem existente. Ambos os modelos são disponibilizados através de uma única página web, cobrindo as duas necessidades mais comuns de designers, profissionais de marketing e criadores de conteúdo: transformar ideias em imagens ou fazer modificações controladas em imagens já existentes.

Pode considerá-lo um descendente direto do «fluxo de trabalho de imagens do tipo GPT» inaugurado pela era da geração de imagens do DALL-E 3 e do GPT-4o, mas ele visa resolver um problema muito específico em 2026: as equipas pequenas precisam de imagens com a qualidade de um estúdio fotográfico profissional, que sejam disponibilizadas em poucos segundos e cujos custos possam ser contabilizados no final do mês. O GPT Image 2 responde de uma só vez a estas três dificuldades. Quer se trate da resolução ou da proporção, o preço fixo de 12 pontos por imagem torna o cálculo dos custos extremamente simples; a capacidade de 20 000 caracteres para prompts significa que mesmo os briefings criativos mais longos e estruturados podem ser introduzidos na íntegra, sem necessidade de eliminar orientações criativas essenciais apenas para cumprir o limite de caracteres.

Este nome reflete, por si só, o processo de maturação de toda a categoria. A primeira geração de ferramentas de «imagens do tipo GPT» tinha um caráter experimental, com resultados que oscilavam entre o bizarro e o impressionante. O GPT Image 2 representa o nível de referência de 2026: qualidade de imagem fotográfica estável, renderização de texto na imagem de boa qualidade e uma experiência de prompts interativa que dá a sensação de «estar a comunicar com um colaborador» em vez de «estar a girar uma slot machine». Não se trata de uma versão prévia, mas sim de um gerador pronto para produção, que, juntamente com toda a nossa linha de ferramentas de imagem com IA — Gerador de prompts de imagem, Página independente de geração de imagens a partir de texto, Editor de geração de imagens a partir de imagens —, forma um ciclo completo, permitindo-lhe escolher a entrada mais adequada de acordo com a natureza da tarefa.

Quem o criou? Onde está o modelo?

O modelo de geração é fornecido pela KIE, uma plataforma de hospedagem de modelos que disponibiliza a série de modelos gpt-image-2 ao público através de APIs hospedadas. Sobre estas APIs, criámos uma camada que inclui uma interface web, uma carteira de pontos, um histórico de prompts e um sistema de contas. Esta divisão de tarefas é fundamental: a qualidade da imagem e a assinatura de estilo que vê são determinadas pela implementação da KIE, enquanto a velocidade de geração, a disponibilidade online e a experiência do produto são compromissos da nossa parte. Por isso, quando alguém pergunta «O que é o GPT Image 2?», a resposta mais sucinta é: a KIE fornece os modelos, nós fornecemos o produto.

Até abril de 2026, os dois pontos de acesso acima mencionados são os únicos modos de geração disponíveis na interface do utilizador. Não temos um botão específico para «alta definição», nem uma secção «variantes em lote», nem um pincel independente para «redesenho parcial» — este último foi, na verdade, substituído pela funcionalidade de gerar imagens a partir de imagens com texto. Manter esta interface minimalista é uma escolha deliberada. Muitas ferramentas de imagem acumulam oito a dez botões de funcionalidades, a maioria dos quais quase ninguém utiliza; eliminá-los permite, pelo contrário, que os verdadeiros pontos fortes do modelo — a compreensão das palavras-chave e o realismo fotográfico — sustentem toda a experiência do produto.

Por que razão os dois modos «texto para imagem» e «imagem para imagem» são suficientes

Qualquer tarefa criativa acaba por se resumir a uma de duas questões: ou «faz-me uma imagem de X», ou «modifica esta imagem no sentido de Y». A geração de imagens a partir de texto resolve a primeira: basta descrever o que se pretende, clicar em «gerar» e obter uma imagem que antes não existia. A geração de imagens a partir de imagens resolve a segunda: carregue uma imagem, indique ao modelo por escrito que deve substituir o fundo, ajustar a iluminação, adicionar produtos à mesa ou transformar o esboço numa pintura a óleo, e ele irá devolver uma variante que respeita a estrutura da imagem original. Estes dois modos, combinados com um espaço de 20 000 caracteres para prompts, são suficientes para cobrir a grande maioria dos cenários de edição de ilustrações, criatividade de marketing, visual de produtos, capas de vídeo e design conceptual; o resto é uma questão de prática.

Como funciona o GPT Image 2

Do ponto de vista do utilizador, gerar uma imagem resume-se a introduzir uma descrição e clicar num botão. Mas, do ponto de vista do engenheiro, nos segundos que decorrem entre o clique no botão e o aparecimento da imagem, o sistema realiza, na verdade, uma série de tarefas. O GPT Image 2 utiliza um modelo de imagem difusivo moderno — tal como o Midjourney, o Stable Diffusion 3 e DALL-E 3 — mas o seu codificador de texto e estratégia de treino foram otimizados especificamente para prompts longos e detalhados. A diferença mais facilmente percetível na imagem final é o «grau de obediência» às instruções. Os modelos anteriores, ao depararem-se com um prompt de 500 palavras, tendiam a uniformizar os detalhes, enquanto o gpt-image-2 trata o prompt como um conjunto de especificações que deve ser executado à risca.

O princípio do modelo de difusão consiste em aprender o «processo inverso da adição de ruído». Durante o treino, é adicionado repetidamente ruído aleatório às imagens reais, até que estas se tornem indistinguíveis de imagens puramente estáticas; a rede aprende a remover o ruído passo a passo, com base em descrições textuais. Durante a geração, o processo é invertido: partindo de ruído puro, as palavras-chave orientam a trajetória de remoção de ruído para que esta converja numa imagem plausível que corresponda ao texto. Para ver os detalhes matemáticos, consulte a entrada da Wikipédia sobre modelos de difusão, Para conhecer a abordagem de engenharia do alinhamento de texto, leia o relatório técnico oficial da OpenAI sobre o DALL-E 3. Ambos são as fontes teóricas herdadas por esta geração de modelos de imagem.

A principal diferença entre o gpt-image-2 e os modelos de difusão comuns reside no seu codificador de prompts. O sistema antigo utilizava um codificador de texto CLIP simples, que não tinha problemas em captar o sentido geral, mas frequentemente falhava em detalhes como sequência, contagem e relações espaciais. O gpt-image-2 utiliza um codificador à escala de um modelo de linguagem, capaz de compreender frases com restrições espaciais, como «três chávenas de café à esquerda da imagem, um caderno vermelho à direita e a luz quente da manhã a entrar pela janela atrás». Os resultados reais confirmam isso mesmo: a precisão no que diz respeito à disposição espacial, ao número de objetos e ao texto incorporado na imagem (por exemplo, «a placa diz "OPEN"») é significativamente superior à de há dois anos.

Esquema do fluxo de trabalho do GPT Image 2: as instruções longas passam primeiro pelo codificador de linguagem e, em seguida, entram na rede de difusão e redução de ruído
A palavra-chave passa primeiro pelo codificador de escala de linguagem e depois entra na rede de difusão; é essa a chave para que um brief extenso possa ser executado na íntegra.

O TuShengTu segue um caminho diferente

A geração de imagens a partir de texto começa com ruído puro, enquanto a geração de imagens a partir de imagens começa com a fotografia que carregar. O modelo irá introduzir algum ruído na imagem original — normalmente com um grau de alteração entre 30% e 70% — e, em seguida, removerá o ruído de acordo com a palavra-chave fornecida. A saída é controlada por dois botões: com ruído baixo, a imagem original é praticamente mantida, sendo adequado para retocar retratos ou ajustar ligeiramente as tonalidades; com ruído alto, a imagem original é significativamente alterada, sendo a palavra-chave a determinar a nova estrutura, adequado para a transferência de estilos ou para «transformar um esboço numa pintura a óleo».

O GPT Image 2 integra estes dois controlos na linguagem das instruções. Se disser «mantém o rosto inalterado e substitui apenas o fundo por uma rua de Tóquio numa noite chuvosa», o modelo opta por um ruído baixo; se disser «retrata como uma pintura impressionista», muda para um ruído elevado. A capacidade do modelo de compreender a intenção é o que permite que a interface do utilizador se mantenha tão simples — a mesma API realiza ações completamente diferentes consoante o que o utilizador diz.

Por que é que o tempo de geração é desta ordem de grandeza?

Uma imagem demora normalmente entre 4 e 15 segundos a ser gerada. A inferência do modelo de difusão requer entre 20 e 50 passos de redução de ruído, sendo que cada passo passa por uma propagação direta através de uma rede com milhares de milhões de parâmetros. Um único passo demora apenas alguns milésimos de segundo em aceleradores modernos; o tempo total de execução é ocupado principalmente pela fila de espera, pelas idas e voltas da rede e pela primeira propagação do codificador de texto. Não é possível otimizar esta parte ao nível do produto, mas isto explica por que razão, ocasionalmente, uma geração demora um pouco mais — o que corresponde quase sempre a picos de utilização do cluster de inferência KIE, e não tem nada a ver consigo.

Competências essenciais e verdadeiros diferenciais

Nos últimos meses, gerei milhares de imagens com o gpt-image-2, abrangendo cenários que vão desde materiais para apresentações, capas de blogues, protótipos de produtos e miniaturas para redes sociais. Há três capacidades que o distinguem de forma mais evidente das ferramentas da geração de 2024 a que todos estão habituados.

O primeiro ponto é a capacidade de execução de briefs extensos. Basta colar um brief criativo de 600 palavras — cenário, tema, vestuário, iluminação, ângulo de filmagem, atmosfera — para que, logo na primeira geração, a maioria dos pontos-chave seja reproduzida. Há 18 meses, isso ainda não era possível. Um brief dessa extensão fazia com que o DALL-E 3 não conseguisse captar o essencial e levava o Stable Diffusion 1.5 a começar a inventar coisas. O GPT Image 2 trata o briefing como um manual de especificações; mesmo que ocasionalmente falhe algum detalhe, a correção habitual consiste apenas em reescrever essa parte mais à frente ou em negrito para a destacar, sem necessidade de reconstruir todo o texto.

O segundo ponto é o realismo de nível fotográfico e os realces de luz nítidos. A característica que mais facilmente denunciava as imagens geradas por IA da geração de 2022 era a pele com aspecto plástico e os realces de luz espelhados deslocados. O gpt-image-2 consegue processar corretamente a difusão subsuperficial da pele, a atenuação suave da luz de uma caixa de luz e a dispersão cromática das lentes de grande abertura — o resultado final torna difícil para um público não especializado identificar à primeira vista que se trata de IA. Não é perfeito. Em cada quinze imagens, cerca de uma apresenta problemas nas mãos, e os grandes planos de relógios mecânicos podem apresentar disposições estranhas das engrenagens. Mas a qualidade de base geral já transmite a sensação de ser «produzido em estúdio».

O terceiro ponto é a renderização de texto na imagem. Nos modelos de difusão da primeira geração, era praticamente impossível conseguir texto legível numa imagem. O GPT Image 2 tem um desempenho bastante fiável com textos curtos: placas de rua, etiquetas, capas de livros, nomes de marcas, datas, slogans curtos e etiquetas numéricas são todos reproduzidos de forma consistente. Os parágrafos longos continuam a degenerar em caracteres aleatórios semelhantes ao latim, pelo que não se deve utilizá-lo para gerar textos de página inteira, mas um título de três a quatro palavras num cartaz já não constitui um problema.

O GPT Image 2 gerou três imagens do mesmo sujeito com diferentes prompts, demonstrando a consistência da figura
O desempenho do mesmo sujeito em três contextos diferentes: as características das pessoas mantêm-se estáveis no estúdio, na rua e em cenários interiores.

Qual é a variedade de estilos disponível?

A maioria dos artigos comparativos nem se dá ao trabalho de testar a variedade de estilos, mas é precisamente nesse ponto que o GPT Image 2 se destaca verdadeiramente. Fotografia cinematográfica, ilustração editorial, vetor plano, renderização de produtos em 3D, pintura a óleo, aguarela, anime, pixel art, diagramas técnicos — este modelo consegue reproduzir tudo isto sem sobrepor tokens de estilo. Basta descrever o efeito estético em linguagem simples, por exemplo, «aquarela sobre papel prensado a frio, com traços de lápis visíveis», para que ele produza a imagem correspondente. Em comparação com o Midjourney, que cria toda uma ecologia subcultural baseada na memorização de códigos de referência, a experiência aqui é contrastantemente simples: basta dizer o que se quer.

A vantagem da relação largura/altura, da resolução e do preço único

Este produto fez uma escolha bem deliberada: o GPT Image 2 não cobra mais por selecionar 4K, nem aumenta o preço por escolher o formato vertical. Cada imagem custa 12 pontos, sem exceções. Isto pode parecer um argumento de marketing, mas na verdade irá mudar a sua forma de trabalhar. Deixará de comprimir repetidamente as instruções para poupar pontos e passará a gerar imagens com liberdade, descartando 80% e mantendo os 20% que realmente o impressionam. Ao longo de um mês, o aumento de produtividade resultante desta mudança de mentalidade é algo que as ferramentas que cobram por variável não lhe podem oferecer.

O que não faz

O GPT Image 2 gera apenas imagens estáticas, não sendo uma ferramenta de animação. Para animar a imagem, é necessário utilizar modelos de geração de vídeo a partir de texto ou de imagens. Também não é um gerador de vetores, sendo que o resultado final é em formato rasterizado WebP/PNG; para criar logótipos, continua a ser necessário utilizar o Illustrator. Não é um editor de proxy, pelo que não permite selecionar áreas específicas para reconstruir separadamente, como o Photoshop Generative Fill — a alternativa mais próxima é a geração de imagens a partir de prompts descritivos, o que é suficiente na maioria dos casos.

Quem são as pessoas mais indicadas para utilizar o GPT Image 2

A forma mais rápida de determinar se uma ferramenta é adequada para si é identificar-se com um dos perfis. Ao longo do último trimestre, deparei-me repetidamente com os cinco tipos de pessoas abaixo, tanto nos dados dos utilizadores como nas entrevistas.

Marketing individual em empresas SaaS com 5 a 50 colaboradores. Esta pessoa escreve no blogue, envia newsletters, seleciona imagens de arquivo e cria cada cartão para as redes sociais. A empresa não tem um designer a tempo inteiro, nem tempo para contratar um freelancer só para um artigo de blogue. Precisa de 20 imagens por semana com um estilo consistente, cada uma a ser concluída em 10 minutos, e que pareçam ter saído do mesmo universo editorial. O GPT Image 2 encaixa quase na perfeição neste perfil: o preço fixo permite-lhe gerar 200 imagens por mês, ficando apenas com as 50 melhores, sem que o departamento financeiro levante qualquer objeção à fatura.

Desenvolvedor de jogos independentes ou criador de aplicações. Durante a fase de pré-produção, esta pessoa necessita de ilustrações de heróis, imagens para cartas, esboços de ícones e material de referência. Normalmente, não insere diretamente as imagens geradas por IA no jogo, mas utiliza-as como especificações visuais, que são depois aperfeiçoadas por artistas humanos. Uma descrição de 20 000 caracteres é uma bênção para ele, porque o briefing de design do jogo já é extenso — basta colar a visão do mundo, o tom emocional e a paleta de cores, gerar e iterar.

Criadores de conteúdo no YouTube, TikTok e Substack. Eles precisam de miniaturas, precisam de algo apelativo e precisam de iterações rápidas, porque o ciclo de feedback é constituído pelos dados de back-end da plataforma. Uma «fábrica de capas» capaz de lhes fornecer 30 variantes de miniaturas em meia hora, para que possam escolher três, é precisamente o tipo de trabalho para o qual a geração de imagens a partir de texto é mais adequada.

Ilustrações dos quatro tipos de utilizadores típicos do GPT Image 2: profissionais de marketing, programadores independentes, criadores de conteúdos e educadores
Os quatro perfis de utilizador mais comuns nos dados: profissionais de marketing generalistas, programadores independentes, criadores de conteúdo e educadores.

Educadores ou autores de documentação técnica. O surgimento deste grupo foi um pouco inesperado. Professores, criadores de cursos e autores de documentação constituem uma parte cada vez maior dos utilizadores, que necessitam de esquemas, visualizações de conceitos abstratos e, ocasionalmente, imagens de capa para apresentações. O controlo do modelo sobre o texto e a composição estruturada das imagens é particularmente útil neste contexto — um diagrama do ciclo hidrológico claramente legendado, uma ilustração estilizada de uma rede neural, ou uma imagem de capa animada para a terceira semana do curso de Python. Como as instruções podem ser longas, é possível incorporar o próprio conteúdo didático nas instruções, obtendo resultados mais próximos da realidade, em vez de um vago «aspecto tecnológico».

Para designers freelancers ou equipas criativas de agências de publicidade. Os profissionais utilizam-no como um acelerador de moodboards: em vez de passar a tarde a procurar inspiração no Pinterest, podem gerar 40 direções diferentes numa tarde, escolher as três melhores como ponto de partida e, depois, finalizar manualmente o trabalho para entrega. Com um limite de 12 pontos por imagem, o orçamento para a fase de exploração do projeto fica mais barato do que um jantar com o cliente.

Para quem não é adequado

Se precisar de um controlo ao nível do pixel sobre áreas específicas da imagem — como aquele fluxo de trabalho do Preenchimento Gerativo do Photoshop, em que se faz retoques minuciosos com pincéis e máscaras —, o GPT Image 2 não é a opção mais adequada. Se o que procura é uma saída vetorial com qualidade de logótipo, também não é a escolha certa. Se precisar que o gerador funcione offline ou numa rede interna local, até abril de 2026, só temos a opção de API hospedada pela KIE, sem opções de auto-hospedagem. Se o seu fluxo de trabalho consiste em manter a consistência de uma mesma personagem em dezenas de quadros de banda desenhada, as ferramentas específicas para a consistência de personagens continuam a ser superiores aos geradores genéricos.

Preços, acesso e como começar

Os preços são bastante moderados: 12 pontos por imagem. Não há taxas adicionais por resolução, nem sobretaxas por orientação vertical ou horizontal, nem botões «avançados» que duplicam a conta sem avisar. Você compra pontos, gasta 12 pontos por imagem e sabe exatamente quanto lhe resta na carteira. A comparação com as bibliotecas de imagens tradicionais é muito intuitiva: a taxa de licenciamento de uma imagem de alta qualidade num site de biblioteca de imagens convencional equivale, aproximadamente, ao custo de gerar 15 a 80 imagens aqui, sem que você obtenha direitos de autor verdadeiramente exclusivos.

A configuração inicial não demora mais de dois minutos. Aceda à Página inicial para se registar; ao iniciar sessão, acede diretamente ao gerador. Escreva uma descrição na caixa de texto ou carregue primeiro uma imagem de referência para criar a imagem, e depois clique em «Gerar». O resultado é apresentado diretamente na página e guardado automaticamente no histórico da sua conta. O formato padrão para download é WebP; clique com o botão direito do rato para obter a imagem original em resolução total. Não é necessário instalar nenhum programa no computador, nem fazer o sideload de extensões, nem aderir a grupos no Discord. Basta um navegador; o dispositivo só precisa suportar composição com GPU moderna (basicamente, qualquer máquina fabricada a partir de 2019 funciona sem problemas).

Se pretender encadear várias gerações para criar um projeto criativo de maior dimensão — por exemplo, preparar um conjunto de ilustrações com um estilo consistente para uma série de artigos de blogue —, a abordagem mais segura consiste em escrever primeiro um resumo do personagem ou do estilo no Gerador de prompts de imagem e, em seguida, colar esse resumo no gerador principal para iterações repetidas. Este fluxo de trabalho foi analisado em pormenor nos tutoriais GPT Image 2 e Guia de Prompt do GPT Image 2, sendo que este último se concentra nas estruturas e nos modificadores que permitem orientar o modelo de forma segura na direção que pretende.

Como é que os pontos são gastos?

Os pontos são deduzidos no momento da geração, e não no momento em que a palavra-chave é enviada. Se a geração falhar devido a uma falha momentânea no servidor, os pontos serão automaticamente devolvidos; se a geração for bem-sucedida, mas o resultado não for do seu agrado, conta como uma utilização — o modelo cumpriu, de facto, a sua função. Na prática, a probabilidade de acertar à primeira é bastante elevada, pelo que esta regra não parece injusta. Na minha rotina de imagens de marketing, a «taxa de satisfação» é de aproximadamente uma reenvio a cada quatro prompts, pelo que 12 pontos por vez não é, de forma alguma, um valor que nos faça franzir o sobrolho no final do mês.

Utilização comercial e direitos de autor

Até abril de 2026, as imagens geradas por utilizadores da versão paga são permitidas para uso comercial. No entanto, a legislação sobre direitos de autor de imagens geradas por IA ainda não está totalmente definida em algumas jurisdições — as orientações atuais do Gabinete de Direitos de Autor dos EUA consideram que os resultados gerados exclusivamente por IA carecem de criatividade humana e, por isso, não são protegidos. Na maioria dos casos de marketing e edição, isso não é relevante, mas se pretender criar um logótipo ou uma marca registada, consulte um advogado e peça a um designer humano para realizar o trabalho final. A página temática sobre IA do Gabinete de Direitos de Autor dos EUA acompanha a evolução das políticas atuais e vale a pena adicioná-la aos favoritos.

Limitações e pontos fracos: em que não se destaca

Aos leitores que chegaram até aqui, vale a pena fazer um balanço sincero. Nenhum modelo de imagem é perfeito, e fingir que é significa criar uma bomba-relógio para o prazo de entrega daqui a duas semanas — quando o modelo der o fora de repente, caberá a si limpar a confusão. A seguir, apresento alguns cenários típicos em que o GPT Image 2 pode falhar.

As mãos e as estruturas anatómicas em pequena escala. Os modelos estão bastante melhores do que os da geração de 2024, mas as mãos em plano aproximado continuam a apresentar problemas aproximadamente uma vez a cada dez ou quinze imagens. Os dedos ficam colados uns aos outros, surge um sexto dedo ou o polegar fica virado na direção errada. Se as mãos forem apenas um detalhe de fundo, ninguém vai notar; mas se for uma imagem principal com a palma da mão voltada para a câmara, terá de regenerar várias vezes. Uma forma muito prática de evitar este problema é escrever diretamente na descrição «não aparecerem mãos na imagem» ou «mãos penduradas naturalmente», e o modelo normalmente contorna o problema com elegância.

Texto com formatação de parágrafos longos na imagem. Frases curtas não são problema; letreiros, etiquetas ou capas de revistas com apenas algumas palavras também funcionam. Mas ainda estamos muito longe de conseguir parágrafos inteiros. Se o que pretende é uma «captura de ecrã de um e-mail», organize esse texto na ferramenta de design antes de o inserir; não conte com o modelo para gerar o corpo do texto.

A identidade é totalmente idêntica quando se utiliza uma única imagem de referência. O "Image-to-Image" consegue preservar as características gerais do sujeito, mas não é um clonador de rostos. Se precisar que "exatamente a mesma pessoa" apareça em 20 imagens, por volta da quinta ou sexta imagem começará a notar-se uma ligeira variação na identidade. A solução passa por um fluxo de trabalho com múltiplas imagens de referência; esta área está a evoluir rapidamente e iremos abordá-la em pormenor num artigo específico. Para uma campanha de pequena escala composta por uma imagem principal e algumas imagens complementares, a geração de imagens a partir de uma imagem é perfeitamente adequada.

Comparação lado a lado entre o GPT Image 2 e outros dois geradores de imagens com IA de 2026, utilizando a mesma prompt
O desempenho da mesma prompt em três modelos diferentes: os pontos fortes e fracos de cada um são evidentes.

Política de conteúdo e filtragem de segurança. Alguns modelos de categorização rejeitam: figuras públicas reais identificadas, conteúdo para adultos e cenários sensíveis relacionados com crianças. O filtro pode, ocasionalmente, bloquear erroneamente prompts totalmente inofensivos, uma vez que certas palavras ativam a correspondência de palavras-chave. Nessa situação, tente novamente com uma formulação diferente. A maioria dos bloqueios indevidos é resolvida na terceira tentativa, quando se expressa o mesmo significado com palavras diferentes.

Coerência de estilo em grandes volumes. Se criar 50 imagens para o guia de estilo de uma marca, é de esperar que 45 delas tenham um aspeto harmonioso, enquanto 5 parecem ter vindo de outro modelo, como se fossem intrusas. A solução consiste em regenerar essas 5 imagens com prompts mais restritivos ou aceitar uma certa dispersão de estilo. Para marcas de grande dimensão com critérios de estilo extremamente rigorosos, continua a ser necessário que um diretor de arte humano revise o trabalho final — o que provavelmente é o procedimento adequado para qualquer marca séria.

Atrasos na resposta durante os horários de pico. Entre as 14:00 e as 22:00 UTC, o tempo de geração aumenta significativamente, o que corresponde à sobreposição dos horários de trabalho nos EUA e na Europa. Num dia normal, a geração de imagens demora entre 4 e 8 segundos, mas nos picos esse tempo pode prolongar-se para 15 a 30 segundos; em casos muito raros, a primeira tentativa expira, mas a segunda é bem-sucedida. Esta é a realidade objetiva da inferência partilhada por GPU em 2026.

«Não é magia» — Uma declaração de confiança

Este tipo de ferramenta é, na essência, uma função de probabilidade definida sobre uma enorme distribuição de aprendizagem. É muito forte na interpolação — gerando algo que se assemelha à distribuição dos dados de treino. É relativamente fraca na extrapolação — gerando algo que nunca existiu de verdade. Se lhe pedirmos para desenhar «um gato», ele acerta em cheio; se lhe pedirmos para desenhar «uma criatura alienígena biomecânica que nunca tenha aparecido em nenhuma obra de ficção científica», o resultado será frequentemente uma criatura «que se assemelha a uma criatura alienígena biomecânica que já apareceu em ficção científica», porque é apenas isso que existe no conjunto de treino. Se ajustarmos as expectativas corretamente, ele irá corresponder às nossas expectativas.

Perguntas frequentes

O que é, afinal, o GPT Image 2? Explique em poucas palavras

O GPT Image 2 é um gerador de imagens com IA de 2026, baseado na série de modelos gpt-image-2 da KIE, que transforma texto e imagens de referência em imagens com qualidade fotográfica, a um preço fixo de 12 pontos por imagem. Suporta a geração de imagens a partir de texto e de outras imagens, com prompts de até 20 000 caracteres, e tem um desempenho particularmente notável com briefings longos e estruturados.

É a mesma coisa que o DALL-E 3 e a geração de imagens do GPT-4o?

Não. O GPT Image 2 é impulsionado pela família de modelos gpt-image-2, hospedada pela KIE, e, embora conceitualmente dê continuidade à linha do «GPT Image», o código-fonte não é o mesmo. A nomenclatura reflete a relação de parentesco: herda a metodologia de prompts longos e nativa da linguagem, pioneira no DALL-E 3, mas existe como um sistema desenvolvido de forma independente e hospedado na infraestrutura da KIE.

Quanto custa o GPT Image 2?

Cada imagem vale 12 pontos, independentemente da resolução, da proporção e do modo de geração (texto para imagem ou imagem para imagem). Não há quaisquer taxas adicionais ocultas por «alta definição» ou «avançado» — porque não existe qualquer modo avançado; a resolução padrão é a máxima.

As imagens geradas podem ser utilizadas para fins comerciais?

Sim, as imagens geradas por utilizadores da versão paga estão autorizadas para uso comercial. É da sua responsabilidade garantir a legalidade do conteúdo das instruções e dos cenários de utilização posteriores — a ferramenta não autoriza, em seu nome, a utilização de personagens protegidas por direitos de marca registada. No que diz respeito a logótipos e marcas registadas, recorra a um designer humano para a entrega final, uma vez que a legislação de direitos de autor dos EUA considera atualmente que os resultados gerados exclusivamente por IA não estão protegidos na ausência de intervenção humana.

Qual é o comprimento máximo das palavras-chave?

20 000 caracteres, o que equivale aproximadamente a 3 000 palavras em inglês, é mais do que a maioria dos briefings criativos. Na prática, a extensão «efetiva» das instruções é muito mais curta, variando normalmente entre 300 e 600 palavras — se for mais longa, o modelo começa a apresentar respostas genéricas em vez de respostas precisas. Este limite máximo existe para garantir que entradas longas e estruturadas (descrição completa do cenário + lista de planos + notas de estilo) não sejam truncadas.

Como se usa o Tushengtu?

Carregue uma imagem original e descreva no prompt o que pretende alterar. Prompts para alterações ligeiras, como «substituir o fundo por um pôr-do-sol numa praia dourada», manterão, em geral, o tema principal da imagem original. Prompts para alterações significativas, como «redesenhar no estilo das bandas desenhadas dos anos 60», reinterpretarão profundamente a imagem original. A mesma interface API determinará, com base na sua intenção linguística, se deve ser feita uma alteração ligeira ou significativa.

Qual é o formato das imagens geradas?

O formato padrão é WebP, que oferece qualidade sem perdas e boa compatibilidade com os navegadores. Se as ferramentas a jusante não forem compatíveis com WebP, utilize qualquer conversor de navegador ou de ambiente de trabalho para converter em PNG ou JPEG num único passo. A resolução final depende da proporção de largura e altura especificada na descrição.

Existe algum limite gratuito?

Ao registar uma nova conta, receberá créditos iniciais, suficientes para criar algumas imagens e experimentar o serviço antes de decidir se deseja pagar. Depois de esgotar esses créditos, poderá comprar mais na página da sua conta. Os utilizadores que efetuem a primeira compra ou que acedam ao site através do blogue poderão, ocasionalmente, encontrar créditos promocionais adicionais; consulte as promoções exibidas na página inicial para obter informações específicas.

Está pronto para começar?

O GPT Image 2 resolve um problema muito específico em 2026: gerar imagens estáticas de alta qualidade de forma rápida, económica e previsível, sem ter de lidar com ferramentas complexas. Os dois modos que suporta — texto para imagem e imagem para imagem — abrangem a maioria dos fluxos de trabalho criativos, e o preço único de 12 pontos simplifica a faturação.

Utilize agora o GPT Image 2 para gerar →

Se quiser aprofundar o assunto, o próximo recurso mais útil é o nosso manual prático Como usar o GPT Image 2, que aborda estratégias para prompts, armadilhas comuns e um fluxo de trabalho exemplificativo para criar coleções de imagens com estilo consistente. Se quiser praticar a criação de prompts da mesma forma que se pratica caligrafia, pode ler o Guia de Prompts do GPT Image 2, que analisa detalhadamente as estruturas e os modificadores que permitem orientar o modelo com precisão na direção que deseja.

Equipa do GPT Image 2

Equipa do GPT Image 2

Geração de imagens e vídeos com IA