Как создать robots.txt знает не каждый начинающий web-мастер. Об этом наша статья.
Файл robots.txt создается на основе простого текстового файла, например в Блокноте. Для того, чтобы создать robots.txt нужно открыть программу Блокнот и сохранить файл с названием, состоящим из маленьких букв: robots.txt. Далее этот файл следует закачать при помощи ftp-менеджера на сайт. Или Файлового менеджера.
Что должно быть внутри файла robots.txt? Для чего служит этот файл?
Файл robots.txt разрешает или запрещает поисковому роботу индексировать те или иные страницы или разделы сайта, иногда весь сайт целиком.
Вновь созданные сайты ucoz, для которых создается файл robots.txt находятся примерно 1 месяц на так называемом карантине, поэтому что бы вы
ни прописали в файле robots.txt для такого сайта. там будет независимо прописываться:
User-agent: * Disallow: /
Что означает: что всем поисковым машинам запрещено индексировать все страницы сайта. Это написано во всех новых созданных сайтах на ucoz.
После изменения вами этого файла пройдет 1 месяц пока изменения вступят в силу, такова политика бесплатного Хостинга. Чтоб ускорить вам надо оплатить любую платную услугу на сайте ucoz
То есть disallow - запретить к индексации.
Рекомендую секретные или пользовательские данные не пропускать в индексацию.
Как правило я прописываю robots.txt следующим образом:
ser-agent: * Disallow: /a/ Disallow: /stat/ Disallow: /index/1 Disallow: /index/2 Disallow: /index/3 Disallow: /index/5 Disallow: /index/7 Disallow: /index/9 Disallow: /panel/ Disallow: /admin/ Disallow: /secure/ Disallow: /informer/ Disallow: /mchat Disallow: /search Host: portal-wm.ru Sitemap: www.portal-wm.ru/sitemap.xml
В этом коде следует только заменить название сайта!
Вы можете разрешить или запретить другие разделы. Все как захотите. Но не перехимичте так как это напрямую будет влиять на индекс ваших страниц у поисковых роботов всех поисковых систем. |