Modello robots.txt

Generatore robots.txt (Scegli Consenti/Blocca per creare un modello)

Scegli le regole Consenti/Blocca per creare rapidamente un modello di robots.txt. Questo generatore semplifica le impostazioni di blocco dei crawler.

L'obiettivo è il controllo della scansione. Non garantisce miglioramenti nel posizionamento.

Elaborato localmente nel tuo browser.

Generatore di Modelli robots.txt

Pronto per essere incollato come robots.txt.
Obiettivo predefinito

Inizia da un modello vicino al tuo obiettivo.

Aggiungi righe Sitemap

Sono consentite più righe. Ogni URL valido diventa una riga Sitemap:.

Anteprima

Pronto per essere incollato come robots.txt.

Opzioni

Avanzate
Apri se necessario

Come usare robots.txt

Aggiungi Consenti/Blocca

Scegli un User-agent e aggiungi le righe delle regole.

Aggiungi Sitemap (opzionale)

Puoi aggiungere più URL di sitemap.

Copia e posiziona

Copia il risultato e salvalo come /robots.txt.

Esempi

Default sicuro

Consenti tutto e aggiungi una sitemap.

User-agent: *
Disallow:

Sitemap: https://example.com/sitemap.xml
Blocca admin

Blocca solo l'area amministrativa.

User-agent: *
Disallow: /admin/
Blocca tutto per staging

Pericoloso, solo per ambienti non di produzione.

User-agent: *
Disallow: /

Cosa può fare robots.txt

  • • robots.txt serve per il controllo della scansione.
  • • Il controllo dell'indicizzazione è separato e potrebbe richiedere noindex.
Posizione https://example.com/robots.txt

FAQ

Migliorerà la SEO?

Lo scopo di robots.txt è il controllo della scansione e non garantisce miglioramenti nel posizionamento. Usalo per ridurre scansioni non necessarie e chiarire le aree riservate.

Disallow: / è pericoloso?

Sì. Disallow: / blocca l'intero sito. Applicarlo in produzione può avere un impatto gravissimo. Questo strumento mostra un forte avviso e richiede conferma prima della copia.

Posso aggiungere righe sitemap?

Sì. Aggiungi gli URL nel campo Sitemap e lo strumento genererà le righe Sitemap: ... (sono supportati più URL).

Copiato