Enquanto a maioria das empresas investe em conteúdo para Google, as IAs como ChatGPT e Perplexity enxergam um HTML vazio. Três elementos técnicos mudam isso — e a maioria dos sites brasileiros não tem nenhum.
Quando o ChatGPT responde "qual a melhor clínica de estética em São Paulo?", ele não busca no Google em tempo real. Ele acessa páginas, lê HTML, processa dados estruturados — e decide quais negócios citar baseado em quão claro e estruturado está o conteúdo.
Sites feitos em React, Vue ou Angular sem SSR entregam um HTML vazio para o crawler. O conteúdo só aparece após execução de JavaScript — e LLMs não executam JavaScript. Resultado: o site simplesmente não existe para a IA.
Mesmo sites com SSR que não têm Schema.org nem llms.txt são legíveis, mas ambíguos. A IA não sabe com precisão o que o negócio faz, onde atua, ou o que o usuário pode contratar. Cita com menos confiança — ou não cita.
llms.txt é um arquivo de texto simples colocado na raiz do domínio — como o robots.txt, mas voltado para modelos de linguagem. Ele fornece instruções estruturadas sobre o que o site oferece, como o conteúdo está organizado e como a IA deve apresentar essas informações.
Enquanto o robots.txt diz "não rastreie esta página", o llms.txt diz "somos uma agência digital em São Paulo especializada em GEO e WebMCP, atendemos PMEs do setor de saúde, jurídico e e-commerce". É contexto semântico que a IA usa para decidir se deve ou não recomendar o negócio.
Schema.org é um vocabulário padronizado (criado por Google, Microsoft, Yahoo e Yandex) para descrever entidades do mundo real em HTML. Implementado via JSON-LD, ele diz para mecanismos de busca e LLMs exatamente o que é cada elemento da página — não apenas como ele parece.
Sem Schema.org, a IA lê "Dr. Carlos Mota — 11 anos de experiência" e não sabe se é dentista, advogado ou coach. Com @type: Dentist, ela sabe exatamente — e pode recomendar com precisão quando alguém pergunta sobre dentistas na região.
Server-Side Rendering significa que o servidor entrega o HTML já completo e populado — sem depender de JavaScript no navegador para renderizar o conteúdo. É a base técnica sem a qual llms.txt e Schema.org têm efeito limitado: se o conteúdo não chega no HTML, a IA não lê.
Se o seu site usa React, Vue ou Angular sem framework de SSR (Next.js, Nuxt, Remix, Astro), o conteúdo está sendo perdido para crawlers de IA. A migração não exige reescrever o site do zero — na maioria dos casos, a Triplo adapta o projeto existente para Next.js App Router com SSR, preservando design e lógica de negócio.
Isolados, cada elemento tem impacto limitado. Juntos, criam uma infraestrutura completa de visibilidade para IA.
Com SSR + Schema.org + llms.txt implementados corretamente, o site passa a ser elegível para citação em respostas de ChatGPT, Perplexity, Gemini e outros LLMs. Para sites com ações transacionais, a combinação com WebMCP completa a infraestrutura — tornando o negócio acessível a agentes de IA.
Analisamos como o site está sendo interpretado por crawlers de IA hoje. Verificamos tipo de renderização (CSR/SSR/SSG), presença de Schema.org, existência de llms.txt e legibilidade do HTML por LLMs.
Adaptamos o projeto existente para Next.js App Router com SSR, preservando design, lógica de negócio e URLs. Em casos de sites estáticos bem estruturados, SSG (Static Site Generation) pode ser suficiente.
Mapeamos todas as entidades relevantes do negócio e implementamos JSON-LD correto: Organization, LocalBusiness, Service, FAQPage, Article, Product — conforme o tipo de site e objetivo.
Redigimos o llms.txt com base no posicionamento de marca, serviços prioritários e público-alvo. O arquivo é revisado periodicamente conforme o negócio evolui e novos LLMs são lançados.
Após a implementação, testamos a leitura real por LLMs, validamos os schemas com ferramentas do Google e configuramos monitoramento de citações em respostas de IA ao longo do tempo.
llms.txt é um arquivo de texto simples colocado na raiz do site (ex: triploup.com.br/llms.txt) que fornece instruções estruturadas para modelos de linguagem sobre como interagir com o conteúdo. Funciona como um "manual de instruções" para IAs, indicando o que o site oferece, como os conteúdos estão organizados e quais ações o usuário pode realizar.
robots.txt fala com rastreadores de mecanismos de busca tradicionais (Googlebot, Bingbot) controlando quais páginas podem ser indexadas. llms.txt fala diretamente com modelos de linguagem, fornecendo contexto semântico sobre o negócio. São complementares — não há conflito entre os dois.
Schema.org fornece dados estruturados que modelos de linguagem entendem com precisão. Com Schema.org correto, a IA sabe exatamente o tipo de negócio, localização, serviços, avaliações e muito mais — aumentando dramaticamente a chance de ser citado em respostas geradas.
Sites em CSR entregam HTML praticamente vazio ao crawlers — o conteúdo real só aparece após execução de JavaScript. A maioria dos crawlers de IA não executa JavaScript: leem apenas o HTML inicial. Resultado: a página retorna uma div vazia para a IA, que interpreta o site como sem conteúdo.
SSR é necessário, mas não suficiente. Um site com SSR ainda precisa de Schema.org estruturado, llms.txt configurado e conteúdo de autoridade. A Triplo chama isso de "infraestrutura GEO completa" — é a combinação dos três (mais WebMCP para sites transacionais) que resulta em citações consistentes por LLMs.
Descubra em uma conversa rápida se seu site tem SSR, Schema.org e llms.txt configurados corretamente — e o que é preciso para começar a ser citado por ChatGPT, Perplexity e Gemini.