Generatore robots.txt (Scegli Consenti/Blocca per creare un modello)
Scegli le regole Consenti/Blocca per creare rapidamente un modello di robots.txt. Questo generatore semplifica le impostazioni di blocco dei crawler.
L'obiettivo è il controllo della scansione. Non garantisce miglioramenti nel posizionamento.
Generatore di Modelli robots.txt
Pronto per essere incollato come robots.txt.Inizia da un modello vicino al tuo obiettivo.
Aggiungi righe Sitemap
Sono consentite più righe. Ogni URL valido diventa una riga Sitemap:.
Anteprima
Opzioni
Avanzate
Apri se necessario
Come usare robots.txt
Scegli un User-agent e aggiungi le righe delle regole.
Puoi aggiungere più URL di sitemap.
Copia il risultato e salvalo come /robots.txt.
Esempi
Consenti tutto e aggiungi una sitemap.
User-agent: * Disallow: Sitemap: https://example.com/sitemap.xml
Blocca solo l'area amministrativa.
User-agent: * Disallow: /admin/
Pericoloso, solo per ambienti non di produzione.
User-agent: * Disallow: /
Cosa può fare robots.txt
- • robots.txt serve per il controllo della scansione.
- • Il controllo dell'indicizzazione è separato e potrebbe richiedere noindex.
FAQ
Migliorerà la SEO?
Lo scopo di robots.txt è il controllo della scansione e non garantisce miglioramenti nel posizionamento. Usalo per ridurre scansioni non necessarie e chiarire le aree riservate.
Disallow: / è pericoloso?
Sì. Disallow: / blocca l'intero sito. Applicarlo in produzione può avere un impatto gravissimo. Questo strumento mostra un forte avviso e richiede conferma prima della copia.
Posso aggiungere righe sitemap?
Sì. Aggiungi gli URL nel campo Sitemap e lo strumento genererà le righe Sitemap: ... (sono supportati più URL).