Шаблон robots.txt

Генератор robots.txt (Создайте правила Allow/Disallow)

Быстро настройте правила доступа поисковых роботов к разделам вашего сайта. Этот инструмент поможет создать корректный файл robots.txt.

Цель файла — управление сканированием. Он не гарантирует рост позиций сам по себе.

Обработка происходит локально.

Создание шаблона robots.txt

Готовый текст для файла robots.txt.
Готовые варианты

Начните с шаблона, который подходит под ваши задачи.

Ссылка на Sitemap

Можно добавить несколько ссылок. Каждая станет отдельной строкой Sitemap:.

Результат

Готовый текст для файла robots.txt.

Опции

Дополнительно
Тонкая настройка

Как использовать

Добавьте правила

Выберите роботов и пропишите пути для Allow/Disallow.

Укажите Sitemap (опция)

Добавьте полные ссылки на файлы Sitemap.

Разместите файл

Скопируйте результат и сохраните его в корне сайта как /robots.txt.

Примеры

Стандартный вариант

Разрешить всё и указать карту сайта.

User-agent: *
Disallow:

Sitemap: https://example.com/sitemap.xml
Закрыть админку

Запретить доступ только к разделу /admin/.

User-agent: *
Disallow: /admin/
Блокировка для теста

Для технических доменов, не предназначенных для поиска.

User-agent: *
Disallow: /

Что нужно знать

  • • robots.txt управляет сканированием (доступом), а не индексацией.
  • • Для полного запрета индексации используйте мета-тег noindex.
Расположение https://example.com/robots.txt

FAQ

Поможет ли это в SEO?

Robots.txt нужен для оптимизации обхода сайта роботами. Он помогает не тратить бюджет сканирования на мусорные страницы, но не поднимает сайт в поиске напрямую.

Опасно ли использовать Disallow: / ?

Да, это полностью закрывает сайт от поисковиков. Наш инструмент выводит предупреждение, если вы попытаетесь использовать такое правило.

Можно ли добавить несколько Sitemap?

Да, просто добавьте ссылки в соответствующие поля — каждая будет выведена в отдельной строке.

Скопировано