robots.txt Генератор (Създайте шаблон чрез правила)
Изберете правила Allow/Disallow за бързо създаване на robots.txt. Този генератор улеснява настройките за блокиране на ботове.
Целта е контрол на сканирането. Това не гарантира по-високо класиране в търсачките.
Генератор на robots.txt шаблон
Готово за поставяне в robots.txt файл.Започнете с вариант, най-близък до вашата цел.
Добави Sitemap
Може да добавите няколко. Всеки URL ще стане нов 'Sitemap:' ред.
Преглед
Опции
Допълнително
Отвори при нужда
Как се ползва robots.txt
Изберете User-agent и добавете редове със забрани или разрешения.
Можете да укажете пътя към мапата на сайта.
Копирайте резултата и го запазете като /robots.txt в главната папка.
Примери
Разреши всичко и добави sitemap.
User-agent: * Disallow: Sitemap: https://example.com/sitemap.xml
Забрани достъпа само до /admin/.
User-agent: * Disallow: /admin/
Опасно, само за тестови (staging) сървъри.
User-agent: * Disallow: /
Какво прави robots.txt
- • robots.txt е само за контрол на сканирането.
- • Контролът на индексирането е отделен процес (тэг noindex).
ЧЗВ
Ще подобри ли това SEO?
Robots.txt помага на ботовете да не хабят ресурс за неважни страници, но сам по себе си не вдига класирането.
Опасно ли е Disallow: / ?
Да. Това блокира целия сайт. Показваме предупреждение, ако изберете тази опция.
Мога ли да добавя sitemap?
Да. Въведете URL адресите в полето Sitemap и те ще се появят в изходния файл.