robots.txt generator (Vælg Allow/Disallow for at bygge en skabelon)
Vælg Allow/Disallow-regler for at oprette en robots.txt-skabelon hurtigt. Denne generator strømliner indstillinger for crawler-blokering.
Målet er kontrol over crawling. Det garanterer ikke forbedringer i rangering.
robots.txt skabelon-generator
Klar til at blive indsat som robots.txt.Start fra en skabelon, der er tættest på dit mål.
Tilføj Sitemap-linjer
Flere linjer tilladt. Hver gyldig URL bliver til en Sitemap: linje.
Forhåndsvisning
Indstillinger
Avanceret
Åbn ved behov
Sådan bruges robots.txt
Vælg en User-agent og tilføj regellinjer.
Du kan tilføje flere sitemap-URL'er.
Kopier resultatet og gem det som /robots.txt.
Eksempler
Tillad alt og tilføj et sitemap.
User-agent: * Disallow: Sitemap: https://example.com/sitemap.xml
Bloker kun admin-området.
User-agent: * Disallow: /admin/
Farligt, kun til ikke-produktion.
User-agent: * Disallow: /
Hvad robots.txt kan gøre
- • robots.txt er til kontrol af crawling.
- • Indekseringskontrol er separat og kan kræve noindex.
FAQ
Vil dette forbedre SEO?
Formålet med robots.txt er kontrol af crawling, og det garanterer ikke forbedringer i rangering. Brug det til at reducere unødvendig crawling og afklare områder, der er lukket af.
Er Disallow: / farlig?
Ja. Disallow: / blokerer hele websitet. At anvende det på produktion kan have alvorlige konsekvenser. Dette værktøj viser en stærk advarsel og kræver bekræftelse før kopiering.
Kan jeg tilføje sitemap-linjer?
Ja. Tilføj URL'er i Sitemap-feltet, og værktøjet viser Sitemap: ... linjer (flere URL'er understøttes).