robots.txt Generator (Kies Toestaan/Weigeren om een sjabloon te bouwen)
Kies Toestaan/Weigeren-regels om snel een robots.txt-sjabloon te maken. Deze robots.txt-generator stroomlijnt de blokkeerinstellingen voor crawlers.
Het doel is crawlcontrole. Het garandeert geen verbeteringen in de rangschikking.
robots.txt Sjabloon Generator
Klaar om te plakken als robots.txt.Begin met een sjabloon dat het dichtst bij uw doel ligt.
Sitemap-regels toevoegen
Meerdere regels toegestaan. Elke geldige URL wordt een Sitemap: regel.
Voorbeeld
Opties
Geavanceerd
Openen indien nodig
Hoe robots.txt te gebruiken
Kies een User-agent en voeg regelregels toe.
U kunt meerdere sitemap-URL's toevoegen.
Kopieer het resultaat en sla het op als /robots.txt.
Voorbeelden
Alles toestaan en een sitemap toevoegen.
User-agent: * Disallow: Sitemap: https://example.com/sitemap.xml
Blokkeer alleen het beheergedeelte.
User-agent: * Disallow: /admin/
Gevaarlijk, alleen voor niet-productie omgevingen.
User-agent: * Disallow: /
Wat robots.txt kan doen
- • robots.txt is voor crawlcontrole.
- • Indexcontrole is apart en kan noindex vereisen.
FAQ
Zal dit SEO verbeteren?
Het doel van robots.txt is crawlcontrole en het garandeert geen verbeteringen in de rangschikking. Gebruik het om onnodig crawlen te verminderen.
Is Disallow: / gevaarlijk?
Ja. Disallow: / blokkeert de hele site. Dit toepassen in productie kan ernstige gevolgen hebben.
Kan ik sitemap-regels toevoegen?
Ja. Voeg URL's toe in het Sitemap-veld en de tool voert Sitemap: ... regels uit (meerdere URL's ondersteund).