robots.txt Generátor (vytvořte šablonu pomocí pravidel)
Zvolte pravidla Allow/Disallow pro rychlé vytvoření souboru robots.txt. Tento generátor usnadňuje nastavení blokování robotů (crawlerů).
Účelem je řízení procházení webu. Nezaručuje zlepšení pozic ve vyhledávání.
Generátor šablony robots.txt
Připraveno ke vložení do souboru robots.txt.Začněte se vzorem, který je nejblíže vašemu cíli.
Přidat řádky Sitemap
Můžete přidat více řádků. Každá platná URL vytvoří řádek 'Sitemap:'.
Náhled
Možnosti
Pokročilé
Otevřít v případě potřeby
Jak používat robots.txt
Zvolte robota (User-agent) a přidejte řádky se zákazy nebo povolením.
Můžete přidat jednu nebo více adres k mapě webu.
Výsledek uložte jako /robots.txt v kořenovém adresáři webu.
Příklady
Povolí vše a přidá sitemap.
User-agent: * Disallow: Sitemap: https://example.com/sitemap.xml
Zakáže přístup pouze do /admin/.
User-agent: * Disallow: /admin/
Nebezpečné, pouze pro neveřejné testovací servery.
User-agent: * Disallow: /
Co robots.txt umí
- • robots.txt slouží pouze k řízení procházení (crawl).
- • Řízení indexace je oddělené a vyžaduje meta tag noindex.
Časté dotazy
Zlepší to SEO?
Účelem robots.txt je řízení zátěže robotů, nikoliv přímé zlepšení pozic. Pomáhá omezit zbytečné procházení.
Je Disallow: / nebezpečné?
Ano. Blokuje procházení celého webu. Nástroj zobrazuje varování a vyžaduje potvrzení před kopírováním.
Mohu přidat více sitemap?
Ano. Vložte adresy do pole Sitemap a nástroj vypíše řádky Sitemap: ... pro každou z nich.