robots.txt generátor (Allow/Disallow szabályok sablonhoz)
Válasszon Allow/Disallow szabályokat a robots.txt sablon gyors létrehozásához. Ez a generátor egyszerűsíti a keresőrobotok blokkolási beállításait.
A cél a bejárás szabályozása. Nem garantálja a rangsorolás javulását.
robots.txt sablongenerátor
Készen áll a beillesztésre robots.txt fájlként.Kezdje a céljához legközelebb álló sablonnal.
Sitemap sorok hozzáadása
Több sor is megadható. Minden érvényes URL egy Sitemap: sor lesz.
Előnézet
Beállítások
Haladó
Megnyitás szükség esetén
Hogyan használjuk a robots.txt-t
Válasszon egy User-agentet és adjon hozzá szabályokat.
Több sitemap URL-t is megadhat.
Másolja le az eredményt és mentse el /robots.txt néven.
Példák
Mindent engedélyez és hozzáad egy sitemapot.
User-agent: * Disallow: Sitemap: https://example.com/sitemap.xml
Csak az admin felület tiltása.
User-agent: * Disallow: /admin/
Veszélyes, csak nem éles környezethez.
User-agent: * Disallow: /
Mire jó a robots.txt
- • A robots.txt a bejárás szabályozására szolgál.
- • Az indexelés szabályozása különálló, és noindex-et igényelhet.
GYIK
Javítja ez a SEO-t?
A robots.txt célja a bejárás szabályozása, nem garantál rangsorolási javulást. Használja a felesleges bejárások csökkentésére és a tiltott területek tisztázására.
Veszélyes a Disallow: /?
Igen. A Disallow: / a teljes oldalt blokkolja. Éles oldalon komoly károkat okozhat. Az eszköz erős figyelmeztetést mutat, és megerősítést kér a másolás előtt.
Hozzáadhatok sitemap sorokat?
Igen. Adja meg az URL-eket a Sitemap mezőben, és az eszköz Sitemap: ... sorokat generál (több URL támogatott).