Gerador de robots.txt (Escolha Permitir/Bloquear para criar um modelo)
Escolha regras de Permitir/Bloquear para criar um modelo de robots.txt rapidamente. Este gerador de robots.txt simplifica as configurações de bloqueio de rastreadores.
O objetivo é o controle de rastreamento. Não garante melhorias no ranking.
Gerador de Modelo de robots.txt
Pronto para colar como robots.txt.Comece a partir de um modelo mais próximo do seu objetivo.
Adicionar linhas de Sitemap
Múltiplas linhas permitidas. Cada URL válido torna-se uma linha Sitemap:.
Pré-visualização
Opções
Avançado
Abrir quando necessário
Como usar o robots.txt
Escolha um User-agent e adicione linhas de regra.
Você pode adicionar múltiplos URLs de sitemap.
Copie o resultado e salve-o como /robots.txt.
Exemplos
Permitir tudo e adicionar um sitemap.
User-agent: * Disallow: Sitemap: https://example.com/sitemap.xml
Bloquear apenas a área administrativa.
User-agent: * Disallow: /admin/
Perigoso, apenas para ambientes fora de produção.
User-agent: * Disallow: /
O que o robots.txt pode fazer
- • O robots.txt serve para controle de rastreamento.
- • O controle de indexação é separado e pode exigir noindex.
Perguntas Frequentes (FAQ)
Isso vai melhorar o SEO?
O propósito do robots.txt é o controle de rastreamento e ele não garante melhorias no ranking. Use-o para reduzir rastreamentos desnecessários e esclarecer áreas fora de limites.
O Disallow: / é perigoso?
Sim. Disallow: / bloqueia o site inteiro. Aplicá-lo em produção pode ter um impacto sério. Esta ferramenta exibe um aviso forte e exige confirmação antes de copiar.
Posso adicionar linhas de sitemap?
Sim. Adicione URLs no campo Sitemap e a ferramenta gerará linhas Sitemap: ... (suporta múltiplos URLs).