ឧបករណ៍បង្កើត robots.txt (ជ្រើសរើស Allow/Disallow ដើម្បីបង្កើតទម្រង់)
ជ្រើសរើសច្បាប់ Allow/Disallow ដើម្បីបង្កើតទម្រង់ robots.txt យ៉ាងរហ័ស។ ឧបករណ៍នេះជួយសម្រួលដល់ការកំណត់រារាំង crawler។
គោលបំណងគឺដើម្បីគ្រប់គ្រងការ crawl។ វាមិនធានានូវការបង្កើនចំណាត់ថ្នាក់ (ranking) ឡើយ។
ឧបករណ៍បង្កើតទម្រង់ robots.txt
រួចរាល់សម្រាប់យកទៅបិទភ្ជាប់ជា robots.txt។ចាប់ផ្តើមពីទម្រង់ដែលជិតបំផុតនឹងគោលដៅរបស់អ្នក។
បន្ថែមបន្ទាត់ Sitemap
អាចបន្ថែមបានច្រើនបន្ទាត់។ រាល់ URL ដែលត្រឹមត្រូវនឹងក្លាយជាបន្ទាត់ Sitemap: ។
មើលជាមុន
ជម្រើស
កម្រិតខ្ពស់
បើកនៅពេលត្រូវការ
របៀបប្រើ robots.txt
ជ្រើសរើស User-agent និងបន្ថែមបន្ទាត់ច្បាប់។
អ្នកអាចបន្ថែម URL នៃ sitemap បានច្រើន។
ចម្លងលទ្ធផល ហើយរក្សាទុកវាជាឯកសារ /robots.txt។
ឧទាហរណ៍
អនុញ្ញាតឱ្យអ្វីៗទាំងអស់ និងបន្ថែម sitemap។
User-agent: * Disallow: Sitemap: https://example.com/sitemap.xml
មិនអនុញ្ញាតសម្រាប់តែផ្នែក admin ប៉ុណ្ណោះ។
User-agent: * Disallow: /admin/
គ្រោះថ្នាក់ សម្រាប់តែបរិយាកាសដែលមិនទាន់ដាក់ឱ្យប្រើផ្លូវការប៉ុណ្ណោះ។
User-agent: * Disallow: /
អ្វីដែល robots.txt អាចធ្វើបាន
- • robots.txt គឺសម្រាប់គ្រប់គ្រងការ crawl។
- • ការគ្រប់គ្រងការធ្វើ Index គឺដាច់ដោយឡែកពីគ្នា ហើយអាចត្រូវការ noindex។
FAQ
តើវាជួយបង្កើន SEO ដែរឬទេ?
គោលបំណងនៃ robots.txt គឺគ្រប់គ្រងការ crawl ហើយវាមិនធានានូវការបង្កើនចំណាត់ថ្នាក់ឡើយ។ ប្រើវាដើម្បីកាត់បន្ថយការ crawl ដែលមិនចាំបាច់ និងកំណត់តំបន់ដែលមិនចង់ឱ្យចូល។
តើ Disallow: / គ្រោះថ្នាក់ដែរឬទេ?
បាទ។ Disallow: / នឹងរារាំងគេហទំព័រទាំងមូល។ ការប្រើប្រាស់វាលើគេហទំព័រផ្លូវការអាចមានផលប៉ះពាល់ធ្ងន់ធ្ងរ។ ឧបករណ៍នេះបង្ហាញការព្រមានយ៉ាងច្បាស់ និងតម្រូវឱ្យបញ្ជាក់មុននឹងចម្លង។
តើខ្ញុំអាចបន្ថែមបន្ទាត់ sitemap បានទេ?
បាទ។ បញ្ចូល URL ក្នុងប្រអប់ Sitemap ហើយឧបករណ៍នឹងបញ្ចេញបន្ទាត់ Sitemap: ... (គាំទ្រ URL ច្រើន)។