Penjana robots.txt (Pilih Benarkan/Jangan Benarkan untuk Membina Templat)
Pilih peraturan Benarkan/Jangan Benarkan untuk mencipta templat robots.txt dengan pantas. Penjana robots.txt ini memudahkan tetapan sekatan perayap.
Matlamatnya adalah kawalan rayapan. Ia tidak menjamin peningkatan kedudukan (ranking).
Penjana Templat robots.txt
Sedia untuk ditampal sebagai robots.txt.Mulakan daripada templat yang paling hampir dengan matlamat anda.
Tambah baris Peta Laman
Berbilang baris dibenarkan. Setiap URL yang sah menjadi baris Sitemap:.
Pratonton
Pilihan
Lanjutan
Buka apabila perlu
Cara menggunakan robots.txt
Pilih User-agent dan tambah baris peraturan.
Anda boleh menambah berbilang URL peta laman.
Salin keputusan dan simpannya sebagai /robots.txt.
Contoh
Benarkan semua dan tambah peta laman.
User-agent: * Disallow: Sitemap: https://example.com/sitemap.xml
Jangan benarkan kawasan admin sahaja.
User-agent: * Disallow: /admin/
Berbahaya, untuk bukan pengeluaran sahaja.
User-agent: * Disallow: /
Apa yang boleh dilakukan oleh robots.txt
- • robots.txt adalah untuk kawalan rayapan.
- • Kawalan indeks adalah berasingan dan mungkin memerlukan noindex.
Soalan Lazim
Adakah ini akan meningkatkan SEO?
Tujuan robots.txt adalah kawalan rayapan dan ia tidak menjamin peningkatan kedudukan. Gunakannya untuk mengurangkan rayapan yang tidak perlu dan menjelaskan kawasan larangan.
Adakah Disallow: / berbahaya?
Ya. Disallow: / menyekat keseluruhan tapak. Menggunakannya pada pengeluaran boleh memberi kesan yang serius. Alat ini menunjukkan amaran keras dan memerlukan pengesahan sebelum menyalin.
Bolehkah saya menambah baris peta laman?
Ya. Tambah URL dalam medan Peta Laman dan alat ini mengeluarkan baris Sitemap: ... (berbilang URL disokong).