robots.txt generatorius (Sukurkite šabloną nustatydami taisykles)
Pasirinkite Leisti/Drausti taisykles ir greitai sukurkite robots.txt šabloną. Šis generatorius supaprastina crawler blokavimo nustatymus.
Tikslas yra nuskaitymo kontrolė. Tai negarantuoja aukštesnių pozicijų paieškoje.
robots.txt šablonų generatorius
Paruošta įklijavimui į robots.txt failą.Pradėkite nuo šablono, geriausiai atitinkančio jūsų tikslą.
Pridėti Sitemap nuorodas
Galima pridėti kelias eilutes. Kiekvienas URL taps Sitemap: eilute.
Peržiūra
Parinktys
Išplėstinės
Atidaryti prireikus
Kaip naudoti robots.txt
Pasirinkite vartotojo agentą ir pridėkite Leisti/Drausti eilutes.
Galite pridėti vieną ar kelis Sitemap URL adresus.
Nukopijuokite rezultatą ir išsaugokite jį kaip /robots.txt savo svetainėje.
Pavyzdžiai
Leisti viską ir nurodyti Sitemap.
User-agent: * Disallow: Sitemap: https://pavyzdys.lt/sitemap.xml
Drausti tik administratoriaus dalį.
User-agent: * Disallow: /admin/
Tik neviešoms, testinėms svetainėms.
User-agent: * Disallow: /
Ką geba robots.txt
- • robots.txt skirtas nuskaitymo kontrolei (crawleriams).
- • Indeksavimo kontrolei (ar puslapis bus rodomas Google) geriau naudoti noindex žymas.
DUK
Ar tai pagerins SEO?
Robots.txt paskirtis yra valdyti resursų nuskaitymą, tai tiesiogiai negarantuoja aukštesnių pozicijų. Naudokite jį tam, kad robotai neeikvotų resursų nereikšmingiems puslapiams.
Ar Disallow: / pavojingas?
Taip. Tai nurodo robotams neindeksuoti jokio turinio svetainėje. Įrankis rodys įspėjimą, jei pasirinksite šį nustatymą.
Ar galiu pridėti kelis Sitemap?
Taip. Pridėkite nuorodas į tam skirtą lauką ir jos bus išvestos atskiromis eilutėmis.