robots.txt-Generator (Allow/Disallow auswählen, um eine Vorlage zu erstellen)
Wählen Sie Allow/Disallow-Regeln, um schnell eine robots.txt-Vorlage zu erstellen. Dieser robots.txt-Generator vereinfacht die Einstellungen zum Blockieren von Crawlern.
Das Ziel ist die Crawl-Steuerung. Es garantiert keine Ranking-Verbesserungen.
robots.txt-Vorlagengenerator
Bereit zum Einfügen als robots.txt.Starten Sie mit einer Vorlage, die Ihrem Ziel am nächsten kommt.
Sitemap-Zeilen hinzufügen
Mehrere Zeilen erlaubt. Jede gültige URL wird zu einer Sitemap:-Zeile.
Vorschau
Optionen
Erweitert
Bei Bedarf öffnen
Verwendung der robots.txt
Wählen Sie einen User-agent und fügen Sie Regelzeilen hinzu.
Sie können mehrere Sitemap-URLs hinzufügen.
Kopieren Sie das Ergebnis und speichern Sie es als /robots.txt.
Beispiele
Alles erlauben und Sitemap hinzufügen.
User-agent: * Disallow: Sitemap: https://example.com/sitemap.xml
Nur den Admin-Bereich verbieten (Disallow).
User-agent: * Disallow: /admin/
Gefährlich, nur für Nicht-Produktionsumgebungen.
User-agent: * Disallow: /
Was die robots.txt tun kann
- • robots.txt dient der Crawl-Steuerung.
- • Die Index-Steuerung ist separat und erfordert möglicherweise noindex.
FAQ
Verbessert dies die SEO?
Der Zweck der robots.txt ist die Crawl-Steuerung und garantiert keine Ranking-Verbesserungen. Nutzen Sie sie, um unnötiges Crawlen zu reduzieren und gesperrte Bereiche zu klären.
Ist Disallow: / gefährlich?
Ja. Disallow: / blockiert die gesamte Website. Die Anwendung in der Produktion kann schwerwiegende Auswirkungen haben. Dieses Tool zeigt eine starke Warnung an und erfordert eine Bestätigung vor dem Kopieren.
Kann ich Sitemap-Zeilen hinzufügen?
Ja. Fügen Sie URLs in das Sitemap-Feld ein und das Tool gibt Sitemap: ... Zeilen aus (mehrere URLs werden unterstützt).