Robots.txt Generator

Генеруйте robots.txt із власними правилами, пресетами та блокуванням AI-ботів.

Швидкі шаблони

Правила (1)

Дозволені шляхи

Заборонені шляхи

Поширені шляхи (клікніть, щоб додати до Disallow):

robots.txt

User-agent: *

Підказки

User-agent: * applies to all crawlers

Disallow: / blocks the entire site

Allow: / explicitly permits all paths

• Place this file at the root: example.com/robots.txt

Про інструмент Robots.txt Generator

Генеруйте валідний файл robots.txt з візуальним редактором правил. Налаштовуйте правила дозволу/заборони для кожного бота, затримки сканування, карти сайту та використовуйте пресети для дозволу всього, блокування всього або блокування AI-сканерів.

Як використовувати

  1. 1Оберіть пресет (Дозволити все, Блокувати все, Блокувати AI-боти) або почніть з «Власний».
  2. 2Додайте правила для конкретних ботів через вибір User-Agent або введіть власну назву.
  3. 3Додайте шляхи Allow та Disallow або натисніть поширені шляхи для швидкого додавання.
  4. 4За бажанням встановіть Crawl-delay та додайте URL вашої карти сайту.
  5. 5Скопіюйте або завантажте згенерований файл robots.txt.

Часті запитання

Що таке robots.txt?
robots.txt — це текстовий файл у кореневому каталозі сайту, що повідомляє веб-сканерам, які сторінки вони можуть або не можуть сканувати. Він є частиною протоколу виключення роботів.
Чи robots.txt зупиняє всіх ботів?
Ні. robots.txt — добровільний стандарт. Добросовісні боти як Googlebot його дотримуються, але шкідливі скрапери можуть його ігнорувати. Для захисту конфіденційного контенту використовуйте автентифікацію.
Як заблокувати AI-сканери?
Використовуйте пресет «Блокувати AI-боти», щоб додати правила Disallow: / для GPTBot (OpenAI), ChatGPT-User, ClaudeBot та CCBot, зберігаючи доступність сайту для SEO-ботів.
Де розмістити robots.txt?
Розмістіть у кореневому каталозі домену: https://example.com/robots.txt — він повинен бути доступний за цією точною адресою для сканерів.