São 21h. Reunião com o cliente às 10h. O modelo está pronto, mas você não tem nada para mostrar além de um screenshot do SketchUp com sombras roxas e aquele gradiente de céu padrão que grita "ainda nem comecei os visuais".
Você já passou por isso. Todos nós já passamos.
As opções antigas eram todas ruins. Abrir o V-Ray e gastar quatro horas configurando materiais e iluminação. Exportar para o Lumion e perceber que esqueceu de instalar aquele pacote de assets de grama. Abrir o Midjourney e descrever seu prédio em palavras, depois passar uma hora tentando fazer ele parar de inventar andares extras.
Aqui está o que eu realmente faço hoje. Cinco minutos, do começo ao fim. Sem motor de renderização. Sem engenharia de prompt. Sem rezar para os deuses da GPU.
Passo 0: deixe seu screenshot do SketchUp impecável
Isso leva 30 segundos e é o maior fator isolado na qualidade final do seu render. Tudo que vem depois depende deste frame.
Escolha o ângulo da câmera no SketchUp como você posicionaria uma câmera em um shoot real. Altura dos olhos para interiores. Levemente elevada para exteriores. A composição que você escolhe aqui é a composição que você recebe de volta — a IA não reenquadra sua imagem, ela renderiza exatamente o que você mostra a ela.
Desligue as sombras e a neblina do SketchUp. Esconda os eixos. Você quer geometria limpa com o mínimo de ruído visual possível. A IA lê cada pixel. Se houver uma linha-guia perdida atravessando sua sala, ela vai tentar dar sentido a isso.
Exporte como PNG. Não pense demais na resolução — 1080p ou maior está ótimo. Salve em algum lugar onde você consiga encontrar em dez segundos.
Passo 1: faça o upload e deixe a IA ler seu projeto
Solte seu screenshot no fluxo guiado da Maquete. Escolha o app de origem (SketchUp, Revit, Rhino — onde você modelou). Dê um nome ao projeto se quiser encontrá-lo depois.
É aqui que as coisas ficam interessantes. A IA analisa sua imagem e devolve uma leitura técnica completa da cena. Ela identifica cada elemento que consegue ver — o tratamento do teto, os acabamentos das paredes, o piso, os móveis, os caixilhos das janelas, as luminárias. Mapeia o layout espacial, a posição da câmera, a composição.
Você nunca vê essa leitura técnica. Ela acontece nos bastidores. O que você vê é o próximo passo.
Passo 2: confirme seus materiais
A IA dá seu melhor palpite para cada material da cena, depois pede para você confirmar ou corrigir. Ela sabe que aquela coisa no teto é um elemento ripado — mas é madeira natural ou MDF pintado? Acabamento fosco ou acetinado? Tem veios visíveis?
Cada elemento aparece como um card. O palpite da IA já vem preenchido. Você pode:
- Confirmar selecionando entre as opções do dropdown (tipo de material, acabamento, refletividade)
- Fazer upload de uma foto de referência do material real — uma amostra do produto, um swatch, uma foto do site do fornecedor
- Pular e deixar a IA decidir com base no que ela vê na imagem
- Adicionar notas — "o piso é na verdade aço Corten" ou "essas almofadas são de veludo verde escuro, não cinza"
Para um interior típico com 8 a 10 elementos, isso leva cerca de 90 segundos se você for criterioso. Mais rápido se você pular os elementos com os quais não se importa.
A percepção principal: você não precisa acertar tudo perfeitamente. Os materiais que importam são as superfícies grandes — piso, paredes, teto. Acerte essas e o render se vende sozinho. Ninguém vai dar zoom para ver se a maçaneta da porta é níquel escovado ou cromo acetinado.
Passo 3: defina a iluminação
Aqui é onde você para de ser arquiteto e começa a ser fotógrafo.
A IA mostra todas as luminárias que encontrou na cena. Você liga ou desliga cada uma. Para as que estão ligadas, define a temperatura de cor (2700K quente, 3000K neutro, 4000K fria) e a intensidade (suave, média, forte).
Depois você define a luz natural. Isso é apenas um slider de hora do dia. Luz da manhã vinda do leste com sombras longas. Sol a pino com mínimo drama. Hora dourada do final da tarde entrando pelas janelas voltadas para o oeste. Luz difusa de céu nublado envolvendo tudo de forma uniforme.
Você também controla o clima: sombras suaves ou definidas, contraste neutro ou levemente dramático, atmosfera neutra ou envolvente.
Meu padrão para apresentações ao cliente: luz natural das 10h, sombras suaves, contraste neutro. É limpo, é honesto, não vende o espaço além do que ele é. Guarde o drama da hora dourada para o post do Instagram.
Passo 4: descreva o que está fora das janelas
Se a IA detectou janelas ou aberturas, ela pergunta o que está do outro lado. Três opções:
- Fazer upload de uma foto do contexto real do site — o jardim, a rua, o prédio vizinho
- Descrever em texto — "vegetação tropical brasileira, bananeiras e costela-de-adão"
- Pular — a IA preenche com algo contextualmente apropriado
Esse passo é frequentemente ignorado, mas importa mais do que você imagina. Um lindo render de interior com um vazio branco do outro lado da janela parece falso. Mesmo um simples "jardim suburbano com árvores maduras" dá profundidade e realismo à cena.
Passo 5: adicione uma referência de qualidade (opcional)
Você pode fazer upload de uma foto que represente a qualidade fotográfica que você busca. Não a geometria, não os móveis, não os materiais — apenas a qualidade da luz, a profundidade de campo, o feel editorial.
Eu mantenho uma pasta com três ou quatro referências de fotografia arquitetônica de revistas. Uma luminosa e arejada, uma sombria e dramática, uma residencial quente, uma comercial fria. Solto a que combinar com o clima desejado.
Esse passo é opcional. Pule e a IA usa por padrão fotografia arquitetônica editorial limpa. O que está bom para a maioria das apresentações.
Passo 6: aperte gerar
Escolha o tamanho de saída (2K serve para apresentações, 4K se você for imprimir) e a proporção (3:2 para a maioria dos interiores, 16:9 para tomadas amplas). Aperte o botão.
A ferramenta compila tudo o que você especificou — materiais, iluminação, contexto, referência de qualidade — em um prompt detalhado de render. Você nunca vê esse prompt. Ele é montado a partir das suas decisões, não das suas palavras.
Então ela gera. Trinta a sessenta segundos para 2K. Um pouco mais para 4K.
O truque do regenerar
Aqui está a parte que transforma isso num workflow em vez de uma aposta.
Seu primeiro render pode estar 90% lá. A geometria está correta, os materiais estão certos, mas talvez a direção da luz pareça um pouco errada. Ou você queira ver com as pendentes acesas em vez de apagadas.
Você ganha até duas regenerações grátis por sessão (uma no trial gratuito, duas em qualquer plano pago). Cada uma usa a mesma configuração compilada — mesmos materiais, mesmo contexto, mesma qualidade — mas produz uma nova variação. É como pedir a um fotógrafo para tirar outra foto da mesma posição.
Depois que suas regenerações grátis acabam, cada uma adicional custa um crédito. Mas duas geralmente bastam para conseguir algo com que você fica satisfeito.
O que realmente importa (e o que não importa)
Depois de fazer isso algumas centenas de vezes, aqui está o que aprendi que faz diferença:
Importa muito:
- Ângulo da câmera no SketchUp. Se a composição é ruim, o render é ruim. Nenhuma quantidade de IA conserta um enquadramento sem graça.
- Acertar as três grandes superfícies: piso, paredes, teto. Elas representam 80% do que o olho vê.
- Hora do dia. Define o clima inteiro. Um render às 16h e um às 10h do mesmo espaço parecem prédios diferentes.
Importa um pouco:
- Estado liga/desliga das luminárias. Adiciona aquecimento e realismo, mas não faz ou desfaz a imagem.
- Contexto fora das janelas. Importante para o realismo, mas um palpite razoável da IA geralmente serve.
- Foto de referência de qualidade. Útil para acertar um estilo editorial específico. Não é essencial.
Não importa muito:
- Detalhes individuais de material de móveis. Pule a menos que o tecido do sofá seja uma decisão de design crucial.
- Temperatura de cor exata de cada luminária. 2700K vs 3000K é invisível em escala de apresentação.
- Resolução de saída para apresentações em tela. 2K é mais que suficiente. Não desperdice créditos com 4K para uma chamada de Zoom.
Quando esse workflow não basta
Não vou fingir que isso substitui tudo.
Se você precisa de walkthroughs animados, precisa do Enscape ou Twinmotion. Se você precisa de renders de documentação de fase de obra com especificações exatas de material destacadas, você precisa de um pipeline de renderização propriamente dito. Se você precisa de 50 ângulos do mesmo projeto para um folder de marketing, o custo por render começa a importar.
Esse workflow é para o caso dos 80%. A reunião do cliente amanhã. A submissão do projeto de aprovação que precisa de uma boa perspectiva. O post do Instagram que precisa não parecer um screenshot do SketchUp. A entrega do concurso onde você precisa de três vistas e tem uma noite.
Para esses 80%, cinco minutos é tudo de que você precisa.
O ponto principal
A razão pela qual eu construí essa ferramenta — e a razão pela qual ela funciona do jeito que funciona — é que arquitetos já sabem como o prédio deles é. Você passou semanas ou meses projetando. Você não precisa descrever isso para um chatbot em palavras. Você precisa que o chatbot olhe para o que você já fez e transforme em uma fotografia.
Cada decisão nesse workflow mapeia para uma decisão que um fotógrafo tomaria em um shoot real. Que hora do dia. Quais luzes ligadas. O que é visível pelas janelas. É isso. Você está dirigindo um ensaio fotográfico, não escrevendo um prompt.
O render deve mostrar ao cliente o prédio dele de verdade. Não uma reinterpretação. Não a visão criativa de uma IA. O prédio dele, os materiais dele, as decisões espaciais dele — só que iluminados corretamente e fotografados bem.
Esse é um trabalho de cinco minutos. E é tudo o que a maioria dos projetos precisa.