robots.txt Generator (Odaberite Allow/Disallow za izradu predloška)
Odaberite pravila Allow/Disallow za brzu izradu robots.txt predloška. Ovaj robots.txt generator pojednostavljuje postavke blokiranja crawlera.
Cilj je kontrola crawlanja. Ne jamči poboljšanje poretka.
robots.txt Generator predloška
Spremno za lijepljenje kao robots.txt.Započnite s predloškom koji je najbliži vašem cilju.
Dodaj Sitemap retke
Dopušteno više redaka. Svaki valjani URL postaje Sitemap: redak.
Pretpregled
Opcije
Napredno
Otvori po potrebi
Kako koristiti robots.txt
Odaberite User-agent i dodajte retke pravila.
Možete dodati više Sitemap URL-ova.
Kopirajte rezultat i spremite ga kao /robots.txt.
Primjeri
Dopusti sve i dodaj sitemap.
User-agent: * Disallow: Sitemap: https://example.com/sitemap.xml
Onemogući samo admin područje.
User-agent: * Disallow: /admin/
Opasno, samo za ne-produkciju.
User-agent: * Disallow: /
Što robots.txt može učiniti
- • robots.txt služi za kontrolu crawlanja.
- • Kontrola indeksiranja je odvojena i može zahtijevati noindex.
FAQ
Hoće li ovo poboljšati SEO?
Svrha robots.txt-a je kontrola crawlanja i on ne jamči poboljšanje poretka. Koristite ga da smanjite nepotrebno crawlanje i razjasnite zabranjena područja.
Je li Disallow: / opasan?
Da. Disallow: / blokira cijelu stranicu. Primjena na produkciji može imati ozbiljne posljedice. Ovaj alat pokazuje snažno upozorenje i zahtijeva potvrdu prije kopiranja.
Mogu li dodati sitemap retke?
Da. Dodajte URL-ove u polje Sitemap i alat ispisuje Sitemap: ... retke (podržano više URL-ova).