• Выглядит robots txt. Как редактировать файл robots txt

    В SEO мелочей не бывает. Иногда на продвижение сайта может оказать влияние всего лишь один небольшой файл — Robots.txt. Если вы хотите, чтобы ваш сайт зашел в индекс, чтобы поисковые роботы обошли нужные вам страницы, нужно прописать для них рекомендации.

    «Разве это возможно?» , — спросите вы. Возможно. Для этого на вашем сайте должен быть файл robots.txt. Как правильно составить файл роботс , настроить и добавить на сайт – разбираемся в этой статье.

    Что такое robots.txt и для чего нужен

    Robots.txt – это обычный текстовый файл , который содержит в себе рекомендации для поисковых роботов: какие страницы нужно сканировать, а какие нет.

    Важно: файл должен быть в кодировке UTF-8, иначе поисковые роботы могут его не воспринять.

    Зайдет ли в индекс сайт, на котором не будет этого файла? Зайдет, но роботы могут «выхватить» те страницы, наличие которых в результатах поиска нежелательно: например, страницы входа, админпанель, личные страницы пользователей, сайты-зеркала и т.п. Все это считается «поисковым мусором»:

    Если в результаты поиска попадёт личная информация, можете пострадать и вы, и сайт. Ещё один момент – без этого файла индексация сайта будет проходить дольше.

    В файле Robots.txt можно задать три типа команд для поисковых пауков:

    • сканирование запрещено;
    • сканирование разрешено;
    • сканирование разрешено частично.

    Все это прописывается с помощью директив.

    Как создать правильный файл Robots.txt для сайта

    Файл Robots.txt можно создать просто в программе «Блокнот», которая по умолчанию есть на любом компьютере. Прописывание файла займет даже у новичка максимум полчаса времени (если знать команды).

    Также можно использовать другие программы – Notepad, например. Есть и онлайн сервисы, которые могут сгенерировать файл автоматически. Например, такие как CY-PR.com или Mediasova .

    Вам просто нужно указать адрес своего сайта, для каких поисковых систем нужно задать правила, главное зеркало (с www или без). Дальше сервис всё сделает сам.

    Лично я предпочитаю старый «дедовский» способ – прописать файл вручную в блокноте. Есть ещё и «ленивый способ» — озадачить этим своего разработчика 🙂 Но даже в таком случае вы должны проверить, правильно ли там всё прописано. Поэтому давайте разберемся, как составить этот самый файл, и где он должен находиться.

    Готовый файл Robots.txt должен находиться в корневой папке сайта. Просто файл, без папки:

    Хотите проверить, есть ли он на вашем сайте? Вбейте в адресную строку адрес: site.ru/robots.txt . Вам откроется вот такая страничка (если файл есть):

    Файл состоит из нескольких блоков, отделённых отступом. В каждом блоке – рекомендации для поисковых роботов разных поисковых систем (плюс блок с общими правилами для всех), и отдельный блок со ссылками на карту сайта – Sitemap.

    Внутри блока с правилами для одного поискового робота отступы делать не нужно.

    Каждый блок начинается директивой User-agent.

    После каждой директивы ставится знак «:» (двоеточие), пробел, после которого указывается значение (например, какую страницу закрыть от индексации).

    Нужно указывать относительные адреса страниц, а не абсолютные. Относительные – это без «www.site.ru». Например, вам нужно запретить к индексации страницу www.site.ru/shop . Значит после двоеточия ставим пробел, слэш и «shop»:

    Disallow: /shop.

    Звездочка (*) обозначает любой набор символов.

    Знак доллара ($) – конец строки.

    Вы можете решить – зачем писать файл с нуля, если его можно открыть на любом сайте и просто скопировать себе?

    Для каждого сайта нужно прописывать уникальные правила. Нужно учесть особенности CMS . Например, та же админпанель находится по адресу /wp-admin на движке WordPress, на другом адрес будет отличаться. То же самое с адресами отдельных страниц, с картой сайта и прочим.

    Настройка файла Robots.txt: индексация, главное зеркало, диррективы

    Как вы уже видели на скриншоте, первой идет директива User-agent. Она указывает, для какого поискового робота будут идти правила ниже.

    User-agent: * — правила для всех поисковых роботов, то есть любой поисковой системы (Google, Yandex, Bing, Рамблер и т.п.).

    User-agent: Googlebot – указывает на правила для поискового паука Google.

    User-agent: Yandex – правила для поискового робота Яндекс.

    Для какого поискового робота прописывать правила первым, нет никакой разницы. Но обычно сначала пишут рекомендации для всех роботов.

    Disallow: Запрет на индексацию

    Чтобы запретить индексацию сайта в целом или отдельных страниц, используется директива Disallow.

    Например, вы можете полностью закрыть сайт от индексации (если ресурс находится на доработке, и вы не хотите, чтобы он попал в выдачу в таком состоянии). Для этого нужно прописать следующее:

    User-agent: *

    Disallow: /

    Таким образом всем поисковым роботам запрещено индексировать контент на сайте.

    А вот так можно открыть сайт для индексации:

    User-agent: *

    Disallow:

    Потому проверьте, стоит ли слеш после директивы Disallow, если хотите закрыть сайт. Если хотите потом его открыть – не забудьте снять правило (а такое часто случается).

    Чтобы закрыть от индексации отдельные страницы, нужно указать их адрес. Я уже писала, как это делается:

    User-agent: *

    Disallow: /wp-admin

    Таким образом на сайте закрыли от сторонних взглядов админпанель.

    Что нужно закрывать от индексации в обязательном порядке:

    • административную панель;
    • личные страницы пользователей;
    • корзины;
    • результаты поиска по сайту;
    • страницы входа, регистрации, авторизации.

    Можно закрыть от индексации и отдельные типы файлов. Допустим, у вас на сайте есть некоторые.pdf-файлы, индексация которых нежелательна. А поисковые роботы очень легко сканируют залитые на сайт файлы. Закрыть их от индексации можно следующим образом:

    User-agent: *

    Disallow: /*. pdf$

    Как отрыть сайт для индексации

    Даже при полностью закрытом от индексации сайте можно открыть роботам путь к определённым файлам или страницам. Допустим, вы переделываете сайт, но каталог с услугами остается нетронутым. Вы можете направить поисковых роботов туда, чтобы они продолжали индексировать раздел. Для этого используется директива Allow:

    User-agent: *

    Allow: /uslugi

    Disallow: /

    Главное зеркало сайта

    До 20 марта 2018 года в файле robots.txt для поискового робота Яндекс нужно было указывать главное зеркало сайта через директиву Host. Сейчас этого делать не нужно – достаточно настроить постраничный 301-редирект .

    Что такое главное зеркало? Это какой адрес вашего сайта является главным – с www или без. Если не настроить редирект, то оба сайта будут проиндексированы, то есть, будут дубли всех страниц.

    Карта сайта: robots.txt sitemap

    После того, как прописаны все директивы для роботов, необходимо указать путь к Sitemap. Карта сайта показывает роботам, что все URL, которые нужно проиндексировать, находятся по определённому адресу. Например:

    Sitemap: site.ru/sitemap.xml

    Когда робот будет обходить сайт, он будет видеть, какие изменения вносились в этот файл. В итоге новые страницы будут индексироваться быстрее.

    Директива Clean-param

    В 2009 году Яндекс ввел новую директиву – Clean-param. С ее помощью можно описать динамические параметры, которые не влияют на содержание страниц. Чаще всего данная директива используется на форумах. Тут возникает много мусора, например id сессии, параметры сортировки. Если прописать данную директиву, поисковый робот Яндекса не будет многократно загружать информацию, которая дублируется.

    Прописать эту директиву можно в любом месте файла robots.txt.

    Параметры, которые роботу не нужно учитывать, перечисляются в первой части значения через знак &:

    Clean-param: sid&sort /forum/viewforum.php

    Эта директива позволяет избежать дублей страниц с динамическими адресами (которые содержат знак вопроса).

    Директива Crawl-delay

    Эта директива придёт на помощь тем, у кого слабый сервер.

    Приход поискового робота – это дополнительная нагрузка на сервер. Если у вас высокая посещаемость сайта, то ресурс может попросту не выдержать и «лечь». В итоге робот получит сообщение об ошибке 5хх. Если такая ситуация будет повторяться постоянно, сайт может быть признан поисковой системой нерабочим.

    Представьте, что вы работаете, и параллельно вам приходится постоянно отвечать на звонки. Ваша продуктивность в таком случае падает.

    Так же и с сервером.

    Вернемся к директиве. Crawl-delay позволяет задать задержку сканирования страниц сайта с целью снизить нагрузку на сервер. Другими словами, вы задаете период, через который будут загружаться страницы сайта. Указывается данный параметр в секундах, целым числом:

    Файл robot.txt – необходим для большинства сайтов.

    Каждый SEO-оптимизатор должен понимать смысл этого файла, а также уметь прописывать самые востребованные директивы.

    Правильно составленный robots улучшает положение сайта в поисковой выдаче и, среди прочих методов продвижения , является эффективным инструментом SEO .

    Чтобы разобраться в том, что такое robot.txt и как он действует, вспомним, как работают поисковики.

    Чтобы проверить его наличие, введите в адресную строку корневой домен, затем добавьте /robots.txt в конец URL-адреса.

    Например, файл робот Moz находится по адресу: moz.com/robots.txt. Вводим, и получаем страницу:

    Инструкции для «робота»

    Как создать файл robots.txt?

    3 типа инструкций для robots.txt.

    Если обнаружили, что файл robots.txt отсутствует, создать его несложно.

    Как уже было сказано в начале статьи – это обычный текстовый файл в корневом каталоге сайта.

    Его можно сделать через админ-панель или файл-менеджер, с помощью которого программист работает с файлами на сайте.

    В том, как и что там прописывать, мы разберемся по ходу статьи.

    Поисковые системы получают из этого файла инструкции трех типов:

    • сканировать все, то есть полный доступ (Allow);
    • сканировать нельзя ничего – полный запрет (Disallow);
    • сканировать отдельные элементы нельзя (указано какие) – частичный доступ.

    На практике это имеет вот такой вид:

    Обратите внимание, страница все равно может попасть в выдачу, если на нее установили ссылку на этом сайте или вне его.

    Чтобы лучше в этом разобраться, давайте изучим синтаксис этого файла.

    Синтаксис Robots.Txt

    Robots.txt: как он выглядит?

    Важные моменты: что нужно всегда помнить о robots.

    Семь общих терминов, которые часто встречаются на сайтах.

    В самой простой форме робот имеет такой вид:

    User agent: [имя системы, для которой мы пишем директивы] Disallow: Sitemap: [указываем, где у нас лежит карта сайта] # Правило 1 User agent: Googlebot Disallow: /prim1/ Sitemap: http://www.nashsite.com/sitemap.xml

    Вместе эти три строки считаются самым простым robots.txt.

    Здесь мы запретили боту индексировать URL: http://www.nashsite.com/prim1/ и указали где находится карта сайта.

    Обратите внимание: в файле robots набор директив для одного пользовательского агента (поисковика) отделен от набора директив для другого разрывом строки.

    В файле с несколькими директивами для поисковых систем каждый запрет или разрешение применяется только к поисковику, указанному в этом конкретном блоке строк.

    Это важный момент и о нем нельзя забывать.

    Если файл содержит правила, применимые к нескольким пользовательским агентам, система будет отдавать приоритет директивам, которые прописаны конкретно для указанного поисковика.

    Вот пример:

    На иллюстрации выше – для MSNbot, discobot и Slurp прописаны индивидуальные правила, которые будут работать только для этих поисковиков.

    Все остальные пользовательские агенты следуют общим директивам в группе user-agent: *.

    Синтаксис robots.txt абсолютно не сложен.

    Существуют семь общих терминов, которые часто встречаются на сайтах.

    • User-agent: специфический веб-поисковик (бот поисковой системы), которому Вы даете инструкции обхода. Список большинства пользовательских агентов можно найти здесь. Всего в нем 302 системы, из которых наиболее актуальны две – Гугл и Яндекс.
    • Disallow: команда запрета, указывающая агенту, что не нужно заходить на URL. Для каждого URL разрешена только одна строка «disallow».
    • Allow (применимо только для Googlebot): команда сообщает боту, что он может получить доступ к странице или подпапке, даже если ее родительская страница или подпапка были закрыты.
    • Crawl-delay (задержка сканирования): сколько миллисекунд поисковик должен ждать перед загрузкой и обходом содержимого страницы.

    Обратите внимание – Googlebot не поддерживает эту команду, но скорость сканирования может быть вручную установлена ​​в Google Search Console.

    • Sitemap: Используется для вызова местоположения любых XML-карт, связанных с этим URL-адресом. Эта команда поддерживается только Google, Ask, Bing и Yahoo.
    • Host: эта директива указывает на основное зеркало сайта, которое стоит учитывать при индексации. Его можно прописать только один раз.
    • Clean-param: это команда используется для борьбы с дублированием контента при динамической адресации.

    Регулярные выражения

    Регулярные выражения: как они выглядят и что обозначают.

    Как разрешать и запрещать сканировать в robots.txt.

    На практике файлы robots.txt могут разрастаться и становиться довольно сложными и громоздкими.

    Система дает возможность использовать регулярные выражения, чтобы обеспечить требуемый функционал файла, то есть гибко работать со страницами и подпапками.

    • * является подстановочным символом, обозначает что директива работает для всех поисковых ботов;
    • $ соответствует концу URL-адреса или строки;
    • # применяется для комментариев разработчиков и оптимизаторов.

    Вот несколько примеров robots.txt для http://www.nashsite.com

    URL-адрес файла robots.txt: www.nashsite.com /robots.txt

    User-agent: * (то есть для всех поисковых систем) Disallow: / (слеш обозначает корневой каталог сайта)

    Мы только что запретили всем поисковикам сканировать и индексировать сайт целиком.

    Как часто требуется такое действие?

    Нечасто, но бывают случаи, когда нужно чтобы ресурс не участвовал в поисковой выдаче, а заходы производились по специальным ссылкам или через корпоративную авторизацию.

    Так работают внутренние сайты некоторых фирм.

    Кроме того, такая директива прописывается, если сайт находится на стадии разработки или модернизации.

    Если нужно разрешить поисковику сканировать вообще все, что есть на сайте, тогда нужно написать в robots.txt такие команды:

    User-agent: * Disallow:

    В запрете (disallow) нет ничего, а значит можно все.

    Использование этого синтаксиса в файле robots.txt предоставляет возможность сканерам обходить все страницы на http://www.nashsite.com, включая домашнюю страницу, админку и контакты.

    Блокировка определенных поисковых ботов и отдельных папок

    Синтаксис для поисковика Google (Googlebot).

    Синтаксис для остальных поисковых агентов.

    User-agent: Googlebot Disallow: / example-subfolder /

    Этот синтаксис указывает только поисковику Google (Googlebot), что не нужно сканировать адрес: www.nashsite.com/example-subfolder/.

    Блокировка отдельных страниц для указанных ботов:

    User-agent: Bingbot Disallow: /example-subfolder/blocked-page.html

    Этот синтаксис говорит, что только Bingbot-у (имя поискового агента Bing), не следует заходить на страницу по адресу: www.nashsite.com /example-subfolder/blocked-page.

    По сути это все.

    Если освоите эти семь команд и три символа и разберетесь в логике применения, сможете написать правильный robots.txt.

    Почему не работает и что делать

    Алгоритм основного действия.

    Другие методы.

    Неправильно работающий robots.txt – это проблемы.

    Ведь на то, чтобы выявить ошибку, а потом разобраться в ней, потребуется время.

    Перечитайте файл, убедитесь, что Вы не заблокировали что-то лишнее.

    Если через время окажется, что страница все равно висит в выдаче, посмотрите в Google Webmaster, переиндексировал ли сайт поисковик, ну и проверьте, нет ли внешних ссылок на закрытую страницу.

    Потому что, если они есть – то скрыть ее из выдачи будет сложнее, потребуются другие методы .

    Ну и перед использованием, проверьте этот файл бесплатным тестером от Google .

    Своевременный анализ помогает избежать неприятностей и экономит время.

    Создание самого файла

    Robots.txt – это файл с инструкциями для поисковых роботов. Он создается в корне сайта. Вы можете прямо сейчас создать его на своем рабочем столе при помощи блокнота, как создается любой текстовый файл.

    Для этого жмем правой кнопкой мыши по пустому пространству, выбираем Создать – Текстовый документ (не Word). Он откроется с помощью обычного блокнота. Назовите его robots, расширение у него и так уже правильное – txt. Это все, что касается создания самого файла.

    Как составить robots.txt

    Теперь остается заполнить файл нужными инструкциями. Собственно, у команд для роботов простейший синтаксис, намного проще, чем в любом языке программирования. Вообще заполнить файл можно двумя способами:

    Посмотреть у другого сайта, скопировать и изменить под структуру своего проекта.

    Написать самому

    О первом способе я уже писал в . Он подходит, если у сайтов одинаковые движки и нет существенной разницы в функционале. Например, все сайты на wordpress имеют одинаковую структуру, однако могут быть различные расширения, вроде форума, интернет-магазина и множества дополнительных каталогов. Если вы хотите знать, как изменить robots.txt читайте эту статью, можно также ознакомиться с предыдущей, но и в этой будет сказано достаточно много.

    Например, у вас на сайте есть каталог /source, где хранятся исходники к тем статьям, что вы пишите на блог, а у другого веб-мастера нет такой директории. И вы, к примеру, хотите закрыть папку source от индексации. Если вы скопируете robots.txt у другого ресурса, то там такой команды не будет. Вам придется дописывать свои инструкции, удалять ненужное и т.д.

    Так что в любом случае полезно знать основы синтаксиса инструкций для роботов, который вы сейчас и разберем.

    Как писать свои инструкции роботам?

    Первое, с чего начинается файл, это с указания того, к каким именно поисковым машинам обращены инструкции. Это делается так:

    User-agent: Yandex Или User-agent: Googlebot

    User - agent : Yandex

    User - agent : Googlebot

    Никаких точек с запятой в конце строчки ставить не нужно, это вам не программирование). В общем, тут понятно, что в первом случае инструкции будет читать только бот Яндекса, во втором – только Гугла. Если команды должны быть выполнены всеми роботами, пишут так: User-agent:

    Отлично. С обращением к роботам мы разобрались. Это несложно. Вы можете представить это на простом примере. У вас есть трое младших братьев, Вася, Дима и Петя, а вы главный. Родители ушли и сказали вам, чтобы вы следили за ними.

    Все трое чего-то просят у вас. Представь, что нужно дать им ответ так, как будто пишешь инструкции поисковым роботам. Это будет выглядеть примерно так:

    User-agent: Vasya Allow: пойти на футбол User-agent: Dima Disallow: пойти на футбол (Дима в прошлый раз разбил стекло соседям, он наказан) User-agent: Petya Allow: сходить в кино (Пете уже 16 и он вообще в шоке, что должен у тебя еще и разрешения спрашивать, ну да ладно, пусть идет).

    Таким образом, Вася радостно зашнуровывает кроссовки, Дима с опущенной головой смотрит в окно на брата, который уже думает, сколько голов забьет сегодня (Дима получил команду disallow, то есть запрет). Ну а Петя отправляется в свое кино.

    Из этого примера несложно понять, что Allow – это разрешение, а Disallow – запрет. Но в robots.txt мы не людям раздаем команды, а роботам, поэтому вместо конкретных дел там прописываются адреса страниц и каталогов, которые нужно разрешить или запретить индексировать.

    Например, у меня есть сайт site.ru. Он на движке wordpress. Начинаю писать инструкции:

    User-agent: * Disallow: /wp-admin/ Disallow: /wp-content/ Disallow: /wp-includes/ Allow: /wp-content/uploads/ Disallow: /source/ Ну и т.д.

    User - agent : *

    Disallow : / wp - admin /

    Disallow : / wp - content /

    Disallow : / wp - includes /

    Disallow : / source /

    Нуит. д.

    Во-первых, я обратился ко всем роботам. Во-вторых, поставил запрет на индексацию папок самого движка, но при этом открыл роботу доступ к папке с загрузками. Там обычно хранятся все картинки, а их обычно не закрывают от индексации, если планируется получать трафик с поиска по картинкам.

    Ну и помните, я ранее в статье говорил о том, что у вас могут быть дополнительные каталоги? Вы можете их создать самостоятельно для различных целей. Например, на одном из моих сайтов есть папка flash, куда я кидаю флэш-игры, чтобы потом их запустить на сайте. Либо source – в этой папке могут хранится файлы, доступные пользователям для загрузки.

    В общем, абсолютно неважно, как называется папка. Если ее нужно закрыть, указываем путь к ней и команду Disallow.

    Команда Allow нужна как раз для того, чтобы уже в закрытых разделах открыть какие-то части. Ведь по умолчанию, если у вас не будет файла robots.txt, весь сайт будет доступен к индексированию. Это и хорошо (уж точно что-то важное не закроете по ошибке), и в то же время плохо (будут открыты файлы и папки, которых не должно быть в выдаче).

    Чтобы лучше понять этот момент, предлагаю еще раз просмотреть этот кусок:

    Disallow: /wp-content/ Allow: /wp-content/uploads/

    Disallow : / wp - content /

    Allow : / wp - content / uploads /

    Как видите, сначала мы ставим запрет на индексацию всего каталога wp-content. В нем хранятся все ваши шаблоны, плагины, но там же есть и картинки. Очевидно, что их то можно и открыть. Для этого нам и нужна команда Allow.

    Дополнительные параметры

    Перечисленные команды – не единственное, что можно указать в файле. Также есть такие: Host – указывает главное зеркало сайта. Кто не знал, у любого сайта по умолчанию есть два варианта написания его доменного имени: domain.com и www.domain.com.

    Чтобы не возникло проблем, необходимо указать в качестве главного зеркала какой-то один вариант. Это можно сделать как в инструментах для веб-мастеров, как и в файле Robots.txt. Для этого пишем: Host: domain.com

    Что это дает? Если кто-то попытается попасть на ваш сайт так: www.domain.com – его автоматически перекинет на вариант без www, потому что он будет признан главным зеркалом.

    Вторая директива – sitemap. Я думаю вы уже поняли, что в ней задается путь к карте сайта в xml-формате. Пример: http://domain.com/sitemap.xml

    Опять же, загрузить карту вы можете и в Яндекс.Вебмастере, также ее можно указать в robots.txt, чтобы робот прочитал эту строчку и четко понял, где ему искать карту сайта. Для робота карта сайта так же важна, как для Васи – мяч, с которым он пойдет на футбол. Это все равно, что он спрашивает у тебя (как у старшего брата) где мяч. А ты ему:

    Задиваном

    Теперь вы знаете, как правильно настроить и изменить robots.txt для яндекса и вообще любого другого поисковика под свои нужды.

    Что дает настройка файла?

    Об этом я также уже говорил ранее, но скажу еще раз. Благодаря четко настроенному файлу с командами для роботов вы сможете спать спокойнее зная, что робот не залезет в ненужный раздел и не возьмет в индекс ненужные страницы.

    Я также говорил, что настройка robots.txt не спасает от всего. В частности, она не спасает от дублей, которые возникает из-за того, что движки несовершенны. Прям как люди. Вы то разрешили Васе идти на футбол, но не факт, что он там не натворит того же, что и Дима. Вот так и с дублями: команду дать можно, но точно нельзя быть уверенным, что что-то лишнее не пролезет в индекс, испортив позиции.

    Дублей тоже не нужно бояться, как огня. Например, тот же Яндекс более менее нормально относится к сайтам, у которых серьезные технические косяки. Другое дело, что если запустить дело, то и вправду можно лишиться серьезного процента трафика к себе. Впрочем, скоро в нашем разделе, посвященном SEO, будет статья о дублях, тогда и будем с ними воевать.

    Как мне получить нормальный robots.txt, если я сам ничего не понимаю?

    В конце концов, создание robots.txt — это не создание сайта. Как-то попроще, поэтому вы вполне можете банально скопировать содержимое файла у любого более менее успешного блоггера. Конечно, если у вас сайт на WordPress. Если он на другом движке, то вам и сайты нужно искать на этих же cms. Как посмотреть содержимое файла на чужом сайте я уже говорил: Domain.com/robots.txt

    Итог

    Я думаю, тут больше не о чем говорить, потому что не надо делать составление инструкций для роботов вашей целью на год. Это та задача, которую под силу выполнить даже новичку за 30-60 минут, а профессионалу вообще всего-то за пару минут. Все у вас получиться и можете в этом не сомневаться.

    А чтобы узнать другие полезные и важные фишки для продвижения и раскрутки блога, можете посмотреть наш уникальный . Если вы примените оттуда 50-100% рекомендаций, то сможете в будущем успешно продвигать любые сайты.

    Расшифровка значений:

    • User-agent: * — вы обращаетесь сразу ко всем поисковым системам, Yandex — только к Яндексу.
    • Disallow: перечислены папки и файлы, которые запрещены для индексации
    • Host – пропишите название вашего сайта без www.
    • Sitemap: ссылка на XML-карту сайта.

    Файл поместите в корневую директорию сайта с помощью Filezilla или через сайт хостера. Скидывайте в главную директорию, чтобы он был доступен по ссылке: ваш_сайт.ру/robots.txt

    Он подойдет только для тех, у кого стоят ЧПУ (ссылки прописаны словами, а не в виде p=333). Достаточно зайти в Настройки – Постоянные ссылки, выбрать нижний вариант и в поле прописать /%postname%

    Некоторые предпочитают создавать этот файл самостоятельно:

    Для начала создайте блокнот на компьютере и назовите его robots (не используйте верхний регистр). В конце настроек его размер не должен быть больше 500 кб.

    User-agent – название поисковой системы (Yandex, Googlebot, StackRambler). Если вы хотите обратиться сразу ко всем, поставьте звездочку *

    А затем укажите страницы или папки, которые нельзя индексировать этому роботу с помощью Disallow :

    Сначала перечислены три директории, а потом конкретный файл.

    Чтобы разрешить индексировать все и всем, нужно прописать:

    User-agent: *
    Disallow:

    Настройка robots.txt для Яндекс и Google

    Для Яндекса обязательно нужно добавить директиву host, чтобы не появлялось дублей страниц. Это слово понимает только бот от Яндекса, так что прописывайте указания для него отдельно.

    Для Google нет никаких дополнений. Единственное, нужно знать, как к нему обращаться. В разделе User-agent нужно писать:

    • Googlebot;
    • Googlebot-Image – если ограничиваете индексацию изображений;
    • Googlebot-Mobile — для мобильной версии сайта.

    Как проверить работоспособность файла robots.txt

    Это можно сделать в разделе «Инструменты для веб-мастеров» от поисковика Google или на сайте Яндекс.Вебмастер в разделе Проверить robots.txt.

    Если будут ошибки, исправьте их и проверьте еще раз. Добейтесь хорошего результата, затем не забудьте скопировать правильный код в robots.txt и залить его на сайт.

    Теперь вы имеете представление, как создать robots.txt для всех поисковиков. Новичкам рекомендую использовать готовый файл, подставив название своего сайта.

    Быстрая навигация по этой странице:

    Современная реальность такова, что в Рунете ни один уважающий себя сайт не может обходиться без файла под названием роботс.тхт — даже если вам нечего запрещать от индексации (хотя практически на каждом сайте есть технические страницы и дублирующий контент, требующие закрытия от индексации), то как минимум прописать директиву с www и без www для Яндекса однозначно стоит — для этого и служат правила написания robots.txt, о которых пойдет речь ниже.

    Что такое robots.txt?

    Свою историю файл с таким названием берет с 1994 года, когда консорциум W3C решил ввести такой стандарт для того, чтобы сайты могли снабжать поисковые системы инструкциями по индексации.

    Файл с таким названием должен быть сохранен в корневой директории сайта, размещение его в каких-либо других папках не допускается.

    Файл выполняет следующие функции:

    1. запрещает какие-либо страницы или группы страниц к индексации
    2. разрешает какие-либо страницы или группы страниц к индексации
    3. указывает роботу Яндекса, какое зеркало сайта является главным (с www или без www)
    4. показывает расположение файла с картой сайта

    Все четыре пункта являются крайне важными для поисковой оптимизации сайта. Запрет на индексацию позволяет закрыть от индексации страницы, которые содержат дублирующий контент — например, страницы тегов, архивов, результаты поиска, страницы с версиями для печати и так далее. Наличие дублирующего контента (когда один и тот же текст, пусть и в размере нескольких предложений, присутствует на двух и более страницах) — это минус для сайта в ранжировании поисковиков, потому дублей должно быть как можно меньше.

    Директива allow самостоятельного значения не имеет, так как по умолчанию все страницы и так доступны для индексации. Она работает в связке с disallow — когда, например, какая-то рубрика полностью закрыта от поисковиков, но вы хотели бы открыть в ней ту или отдельно взятную страницу.

    Указание на главное зеркало сайта также является одним из самых важных элементов в оптимизации: поисковики рассматривают сайты www.вашсайт.ру и вашсайт.ру как два разных ресурса, если вы им прямо не укажете иное. В результате происходит удвоение контента — появление дублей, уменьшение силы внешних ссылок (внешние ссылки могут ставиться как с www, так и без www) и в результате это может привести к более низкому ранжированию в поисковой выдаче.

    Для Google главное зеркало прописывается в инструментах Вебмастера (http://www.google.ru/webmasters/), а вот для Яндекса данные инструкции можно прописать только в том самом роботс.тхт.

    Указание на xml-файл с картой сайта (например — sitemap.xml) позволяет поисковикам обнаружить данный файл.

    Правила указания User-agent

    User-agent в данном случае — это поисковая система. При написании инструкций необходимо указать, будут ли они действовать на все поисковики (тогда проставляется знак звездочки — *) или же они рассчитаны на какой-то отдельный поисковик — например, Яндекс или Google.

    Для того, чтобы задать User-agent с указанием на всех роботов, напишите в своем файле следующую строку:

    User-agent: *

    Для Яндекса:

    User-agent: Yandex

    Для Гугла:

    User-agent: GoogleBot

    Правила указания disallow и allow

    Во-первых, следует отметить, что файл robots.txt для его валидности обязательно должен содержать хотя бы одну директиву disallow. Теперь рассмотрив применение этих директив на конкретных примерах.

    Посредством такого кода вы разрешаете индексацию всех страниц сайта:

    User-agent: * Disallow:

    А посредством такого кода, напротив, все странички будут закрыты:

    User-agent: * Disallow: /

    Для запрета на индексацию конкретной директории под названием folder укажите:

    User-agent: * Disallow: /folder

    Можно использовать также звездочки для подстановки произвольного названия:

    User-agent: * Disallow: *.php

    Важно: звездочка заменяет название файла целиком, то есть нельзя указать file*.php, можно только *.php (но будут запрещены все страницы с расширением.php, чтобы этого избежать — можете указать конкретный адрес страницы).

    Директива allow, как было указано выше, используется для создания исключений в disallow (иначе она не имеет смысла, так как страницы по умолчанию и так открыты).

    Например, запретим к индексации страницы в папке archive, но оставим открытой страничку index.html из этой директории:

    Allow: /archive/index.html Disallow: /archive/

    Указываем хост и карту сайта

    Хост — это главное зеркало сайта (то есть название домена плюс www или название домена без этой приставки). Хост указывается только для робота Яндекса (при этом обязательно должна быть хотя бы одна команда disallow).

    Для указания host robots.txt должен содержать следующую запись:

    User-agent: Yandex Disallow: Host: www.вашсайт.ру

    Что касается карты сайта, то в robots.txt sitemap указывается простым прописанием полного пути к соответствующему файлу, с указанием доменного имени:

    Sitemap: http://вашсайт.ру/sitemap.xml

    О том, как сделать карту сайта для WordPress, написано .

    Пример robots.txt для WordPress

    Для wordpress инструкции необходимо указывать таким образом, чтобы закрыть к индексации все технические директории (wp-admin, wp-includes и т.д.), а также дубли страниц, создаваемые тегами, файлами rss, комментариями, поиском.

    В качестве примера robots.txt для wordpress можете взять файл с нашего сайта:

    User-agent: Yandex Disallow: /wp-admin Disallow: /wp-includes Disallow: /wp-login.php Disallow: /wp-register.php Disallow: /xmlrpc.php Disallow: /search Disallow: */trackback Disallow: */feed/ Disallow: */feed Disallow: */comments/ Disallow: /?feed= Disallow: /?s= Disallow: */page/* Disallow: */comment Disallow: */tag/* Disallow: */attachment/* Allow: /wp-content/uploads/ Host: www..php Disallow: /wp-register.php Disallow: /xmlrpc.php Disallow: /search Disallow: */trackback Disallow: */feed/ Disallow: */feed Disallow: */comments/ Disallow: /?feed= Disallow: /?s= Disallow: */page/* Disallow: */comment Disallow: */tag/* Disallow: */attachment/* Allow: /wp-content/uploads/ User-agent: * Disallow: /wp-admin Disallow: /wp-includes Disallow: /wp-login.php Disallow: /wp-register.php Disallow: /xmlrpc.php Disallow: /search Disallow: */trackback Disallow: */feed/ Disallow: */feed Disallow: */comments/ Disallow: /?feed= Disallow: /?s= Disallow: */page/* Disallow: */comment Disallow: */tag/* Disallow: */attachment/* Allow: /wp-content/uploads/ Sitemap: https://www..xml

    Скачать файл robots.txt с нашего сайта можно по .

    Если по итогам прочтения этой статьи у вас остались какие-либо вопросы — задавайте в комментариях!