robots.txt გენერატორი (აირჩიეთ Allow/Disallow)
Allow / Disallow წესების არჩევით სწრაფად შექმენით robots.txt შაბლონი.
ეს ინსტრუმენტი crawl-ის კონტროლისთვისაა. რეიტინგის გაუმჯობესებას არ იძლევა გარანტიას.
robots.txt შაბლონის გენერატორი
პრაქტიკული ფორმით შექმენით crawler-ის ბლოკირების წესები. გენერირებული შედეგი უბრალო ტექსტია, რომლის პირდაპირ robots.txt-ად ჩასმაც შეგიძლიათ.
როგორ გამოვიყენოთ
- დააყენეთ User-agent და დაამატეთ Allow/Disallow წესები.
- საჭიროების შემთხვევაში დაამატეთ Sitemap URL-ები (რამდენიმე ხაზიც მხარდაჭერილია).
- დააკოპირეთ ან ჩამოტვირთეთ გენერირებული robots.txt.
რას აკეთებს robots.txt
- robots.txt crawl-ის ქცევას აკონტროლებს.
- ინდექსაციის კონტროლს შეიძლება სხვა მეთოდებიც სჭირდებოდეს, მაგალითად noindex.
- robots.txt განათავსეთ საიტის root-ში, მაგალითად https://example.com/robots.txt.
FAQ
ეს SEO რეიტინგს გააუმჯობესებს?
robots.txt-ის მიზანი crawl-ის კონტროლია. რეიტინგის ზრდას არ იძლევა გარანტიას.
Disallow: / სახიფათოა?
კი. Disallow: / შეიძლება მთელი საიტის crawl დაბლოკოს. ეს ინსტრუმენტი აჩვენებს ძლიერ გაფრთხილებას და კოპირებამდე/ჩამოტვირთვამდე დადასტურებას ითხოვს.
შემიძლია Sitemap ხაზებიც ჩავამატო?
კი. Sitemap ველში დაამატეთ URL-ები და ინსტრუმენტი ავტომატურად გამოიტანს Sitemap: ... ხაზებს, მათ შორის რამდენიმე URL-საც.