Генератор robots.txt (Создайте правила Allow/Disallow)
Быстро настройте правила доступа поисковых роботов к разделам вашего сайта. Этот инструмент поможет создать корректный файл robots.txt.
Цель файла — управление сканированием. Он не гарантирует рост позиций сам по себе.
Создание шаблона robots.txt
Готовый текст для файла robots.txt.Начните с шаблона, который подходит под ваши задачи.
Ссылка на Sitemap
Можно добавить несколько ссылок. Каждая станет отдельной строкой Sitemap:.
Результат
Опции
Дополнительно
Тонкая настройка
Как использовать
Выберите роботов и пропишите пути для Allow/Disallow.
Добавьте полные ссылки на файлы Sitemap.
Скопируйте результат и сохраните его в корне сайта как /robots.txt.
Примеры
Разрешить всё и указать карту сайта.
User-agent: * Disallow: Sitemap: https://example.com/sitemap.xml
Запретить доступ только к разделу /admin/.
User-agent: * Disallow: /admin/
Для технических доменов, не предназначенных для поиска.
User-agent: * Disallow: /
Что нужно знать
- • robots.txt управляет сканированием (доступом), а не индексацией.
- • Для полного запрета индексации используйте мета-тег noindex.
FAQ
Поможет ли это в SEO?
Robots.txt нужен для оптимизации обхода сайта роботами. Он помогает не тратить бюджет сканирования на мусорные страницы, но не поднимает сайт в поиске напрямую.
Опасно ли использовать Disallow: / ?
Да, это полностью закрывает сайт от поисковиков. Наш инструмент выводит предупреждение, если вы попытаетесь использовать такое правило.
Можно ли добавить несколько Sitemap?
Да, просто добавьте ссылки в соответствующие поля — каждая будет выведена в отдельной строке.