Как сделать robots.txt для яндекса

Как сделать robots.txt для яндексаВсем привет! Недавно я столкнулся с такой проблемой, что страницы моего блога индексировались по разным адресам и разделам.

Всё дело в том, что я использую ЧПУ (Человеко Понятый Урл). ЧПУ позволяет сделать страницы в формате .html, что очень удобно для посетителей и поисковиков!

Я решил, что нужно рассказать как сделать robots.txt  для Яндекса имаксимально совместимый с ЧПУ на WordPress!

Я зашел в статистику майл.ру, раздел Страницы и посмотрел, какие страницы моего сайта в поиске и ужаснулся…

Как сделать robots.txt для яндекса

Эти разделы я не хочу видеть в поисковой выдаче, потому, что они дублируются со страницами ЧПУ. После анализа страниц и разделов, я сделал robots.txt который хорошо подходит для Яндекса и движка WordPress с использованием ЧПУ:

User-agent: *
Disallow: /redirect
Disallow: /tag/
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/themes
Disallow: /wp-content/plugins
Disallow: /wp-content/languages
Disallow: /wp-content/cache
Disallow: /trackback
Disallow: */trackback
Disallow: */feed
Disallow: /*feed 
Disallow: /feed
Disallow: /?feed=
Disallow: /?s=
Disallow: */comments
Disallow: /*comment-page-*
Disallow: /?p
Disallow: /*.js$
Disallow: /*.inc$
Disallow: /*.css$
Disallow: /search
Disallow: /xmlrpc.php

Host: whitik.ru
Sitemap: http://whitik.ru/sitemap.xml

 

Вот так выглядит мой файл robots.txt для Яндекса. По прошествии некоторого времени из Яндекса «отвалились» не нужные страницы, можете сами проверить: http://yandex.ru/yandsearch?site=whitik.ru&text=&ras=1&lr=194

Можно конечно поспорить, стоит ли исключать ненужные страницы из поиска или нет? Многие говорят, что дублированный контент ничего хорошего не дает и что поисковики за это могу пессимизировать!

Как сделать robot.txt для яндекса

Если же у Вас возникли сложности при составлении роботса, могу посоветовать хороший сервис, по генерации robots: http://htmlweb.ru/analiz/robots.php

как сделать robot.txt для яндекса

В данном сервисе всё просто! Вам нужно всего лишь узнать какие файлы и папки Вы хотите исключить из поиска и добавить их в «Disallows /».

Помните, что для закрытия папки от индекса нужно писать: Disallow: /papka   —   (Все файлы в папке не будут индексироваться).

А для закрытия от индекса файла типа file.php, нужно писать:  Disallow: /file.php

Если Вам нужно закрыть от индекса всего один файл в папке, то это можно сделать так:  Disallow: /papka/file.php

Ещё раз

Disallow: /wp-admin/ — запрещает индексировать файлы из директории wp-admin, но не запретит индексировать файлы из директорий, вложенных в wp-admin!

Disallow: /wp-admin — запрещает индексировать всё, что находится в папке и в подпапках!

Надеюсь данные советы помогут Вам в работе!

Как сделать robots.txt для яндекса: 7 комментариев

  1. Владимир

    Большое спасибо за эту статью. Для меня она оказалась очень полезной!

  2. Руслан

    Попробую воспользоваться ресурсом для создания файла robot.txt. А возможно ли его создать для сайта на narod?

  3. а

    Спасибо! :)
    Интересовало именно / — закрытие и открытие целой линии страниц)))

  4. Laeda

    Нифига так и не полял :( Как сделать robot.txt для яндекса, чтобы он отлично работал и все страницы сайта индексировались как надо?

  5. vaseras

    Понятно все с роботсом. Надо авто для создание этого файла добавить.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *