Generator robots.txt (Wybierz Allow/Disallow, aby stworzyć szablon)
Wybierz reguły Allow/Disallow, aby szybko stworzyć szablon robots.txt. Ten generator upraszcza ustawienia blokowania robotów indeksujących.
Celem jest kontrola indeksowania. Narzędzie nie gwarantuje poprawy pozycji w wynikach wyszukiwania.
Generator szablonów robots.txt
Gotowe do wklejenia jako robots.txt.Zacznij od szablonu najbliższego Twojemu celowi.
Dodaj linie Sitemap
Można dodać wiele linii. Każdy poprawny URL stanie się linią Sitemap:.
Podgląd
Opcje
Zaawansowane
Otwórz w razie potrzeby
Jak używać robots.txt
Wybierz User-agenta i dodaj linie z regułami.
Możesz dodać wiele adresów URL mapy witryny.
Skopiuj wynik i zapisz go jako /robots.txt w głównym katalogu strony.
Przykłady
Zezwalaj na wszystko i dodaj mapę witryny.
User-agent: * Disallow: Sitemap: https://example.com/sitemap.xml
Blokuj tylko obszar administracyjny.
User-agent: * Disallow: /admin/
Niebezpieczne, tylko dla środowisk nieprodukcyjnych.
User-agent: * Disallow: /
Co potrafi robots.txt
- • robots.txt służy do kontroli indeksowania (crawl control).
- • Kontrola indeksu wyszukiwarki jest oddzielna i może wymagać tagu noindex.
FAQ
Czy to poprawi moje SEO?
Celem robots.txt jest kontrola pracy robotów, co nie gwarantuje bezpośrednio wyższych pozycji. Używaj go, by ograniczyć zbędne indeksowanie i wskazać obszary prywatne.
Czy Disallow: / jest niebezpieczne?
Tak. Disallow: / blokuje całą stronę. Wdrożenie tego na produkcji może usunąć stronę z Google. Narzędzie wymaga potwierdzenia przed pobraniem takiej reguły.
Czy mogę dodać linie sitemap?
Tak. Dodaj adresy w polu Sitemap, a narzędzie wygeneruje odpowiednie linie (obsługuje wiele adresów).