robots.txt шаблон

robots.txt Генератор (Създайте шаблон чрез правила)

Изберете правила Allow/Disallow за бързо създаване на robots.txt. Този генератор улеснява настройките за блокиране на ботове.

Целта е контрол на сканирането. Това не гарантира по-високо класиране в търсачките.

Обработва се локално във вашия браузър.

Генератор на robots.txt шаблон

Готово за поставяне в robots.txt файл.
Готови шаблони

Започнете с вариант, най-близък до вашата цел.

Добави Sitemap

Може да добавите няколко. Всеки URL ще стане нов 'Sitemap:' ред.

Преглед

Готово за поставяне в robots.txt файл.

Опции

Допълнително
Отвори при нужда

Как се ползва robots.txt

Добавете правила

Изберете User-agent и добавете редове със забрани или разрешения.

Добавете Sitemap

Можете да укажете пътя към мапата на сайта.

Запазете файла

Копирайте резултата и го запазете като /robots.txt в главната папка.

Примери

Безопасен стандарт

Разреши всичко и добави sitemap.

User-agent: *
Disallow:

Sitemap: https://example.com/sitemap.xml
Блокирай админа

Забрани достъпа само до /admin/.

User-agent: *
Disallow: /admin/
Блокирай всичко за тест

Опасно, само за тестови (staging) сървъри.

User-agent: *
Disallow: /

Какво прави robots.txt

  • • robots.txt е само за контрол на сканирането.
  • • Контролът на индексирането е отделен процес (тэг noindex).
Местоположение https://example.com/robots.txt

ЧЗВ

Ще подобри ли това SEO?

Robots.txt помага на ботовете да не хабят ресурс за неважни страници, но сам по себе си не вдига класирането.

Опасно ли е Disallow: / ?

Да. Това блокира целия сайт. Показваме предупреждение, ако изберете тази опция.

Мога ли да добавя sitemap?

Да. Въведете URL адресите в полето Sitemap и те ще се появят в изходния файл.

Копирано