robots.txt जनरेटर (टेम्पलेट तयार करण्यासाठी Allow/Disallow निवडा)
robots.txt टेम्पलेट जलद तयार करण्यासाठी Allow/Disallow नियम निवडा. हा robots.txt जनरेटर क्रॉलर ब्लॉक सेटिंग्ज सुलभ करतो.
ध्येय क्रॉल नियंत्रण (crawl control) आहे. हे रँकिंग सुधारण्याची हमी देत नाही.
robots.txt टेम्पलेट जनरेटर
robots.txt म्हणून पेस्ट करण्यासाठी तयार.तुमच्या ध्येयाच्या सर्वात जवळ असलेल्या टेम्पलेटपासून सुरुवात करा.
Sitemap ओळी जोडा
एकाधिक ओळींना अनुमती आहे. प्रत्येक वैध URL 'Sitemap:' ओळ बनेल.
प्रिव्ह्यू
पर्याय
प्रगत
आवश्यक असल्यास उघडा
robots.txt कसे वापरायचे
युजर-एजंट निवडा आणि नियम ओळी जोडा.
तुम्ही एकाधिक सॅटमॅप URL जोडू शकता.
निकाल कॉपी करा आणि तो /robots.txt म्हणून जतन करा.
उदाहरणे
सर्व काही चालू ठेवा आणि सॅटमॅप जोडा.
User-agent: * Disallow: Sitemap: https://example.com/sitemap.xml
केवळ ॲडमिन भाग ब्लॉक करा.
User-agent: * Disallow: /admin/
धोकादायक, केवळ नॉन-प्रोडक्शनसाठी.
User-agent: * Disallow: /
robots.txt काय करू शकते
- • robots.txt क्रॉल नियंत्रणासाठी आहे.
- • इंडेक्स नियंत्रण वेगळे आहे आणि त्यासाठी noindex ची आवश्यकता असू शकते.
नेहमी विचारले जाणारे प्रश्न
यामुळे SEO सुधारेल का?
robots.txt चा उद्देश क्रॉल नियंत्रण आहे आणि तो रँकिंग सुधारण्याची हमी देत नाही. अनावश्यक क्रॉल कमी करण्यासाठी आणि प्रतिबंधित क्षेत्रे स्पष्ट करण्यासाठी याचा वापर करा.
Disallow: / धोकादायक आहे का?
होय. Disallow: / संपूर्ण साईट ब्लॉक करते. उत्पादनावर (production) ते लागू केल्यास गंभीर परिणाम होऊ शकतात. हे साधन एक कडक चेतावणी दाखवते आणि कॉपी करण्यापूर्वी पुष्टीकरण आवश्यक आहे.
मी सॅटमॅप ओळी जोडू शकतो का?
होय. सॅटमॅप फील्डमध्ये URL जोडा आणि साधन 'Sitemap: ...' ओळी आउटपुट देते (एकाधिक URL समर्थित आहेत).