robots.txt გენერატორი (აირჩიეთ Allow/Disallow)

Allow / Disallow წესების არჩევით სწრაფად შექმენით robots.txt შაბლონი.

ეს ინსტრუმენტი crawl-ის კონტროლისთვისაა. რეიტინგის გაუმჯობესებას არ იძლევა გარანტიას.

სარისკო სრული საიტის ბლოკები გაფრთხილებითა და დადასტურებით არის დაცული

robots.txt შაბლონის გენერატორი

პრაქტიკული ფორმით შექმენით crawler-ის ბლოკირების წესები. გენერირებული შედეგი უბრალო ტექსტია, რომლის პირდაპირ robots.txt-ად ჩასმაც შეგიძლიათ.

როგორ გამოვიყენოთ

  1. დააყენეთ User-agent და დაამატეთ Allow/Disallow წესები.
  2. საჭიროების შემთხვევაში დაამატეთ Sitemap URL-ები (რამდენიმე ხაზიც მხარდაჭერილია).
  3. დააკოპირეთ ან ჩამოტვირთეთ გენერირებული robots.txt.

რას აკეთებს robots.txt

  • robots.txt crawl-ის ქცევას აკონტროლებს.
  • ინდექსაციის კონტროლს შეიძლება სხვა მეთოდებიც სჭირდებოდეს, მაგალითად noindex.
  • robots.txt განათავსეთ საიტის root-ში, მაგალითად https://example.com/robots.txt.

FAQ

ეს SEO რეიტინგს გააუმჯობესებს?

robots.txt-ის მიზანი crawl-ის კონტროლია. რეიტინგის ზრდას არ იძლევა გარანტიას.

Disallow: / სახიფათოა?

კი. Disallow: / შეიძლება მთელი საიტის crawl დაბლოკოს. ეს ინსტრუმენტი აჩვენებს ძლიერ გაფრთხილებას და კოპირებამდე/ჩამოტვირთვამდე დადასტურებას ითხოვს.

შემიძლია Sitemap ხაზებიც ჩავამატო?

კი. Sitemap ველში დაამატეთ URL-ები და ინსტრუმენტი ავტომატურად გამოიტანს Sitemap: ... ხაზებს, მათ შორის რამდენიმე URL-საც.