Запрет индексации конкретной динамической страницы

Например, Вам нужно, чтобы конкретная страница Вашего сайта была закрыта для индексации поисковых систем, таких как Google, Яндекс и т.д.

Вы легко можете произвести изменения в robots.txt:

Запрет индексации файла

User-agent: * # для всех поисковиков
Disallow: /file.html

Тем самым вы запретили всем поисковикам индексировать файл (страницу) file.html.

Запрет индексации папки (директории)

User-agent: *
Disallow: /pictures/

Тем самым вы запретили всем поисковикам индексировать папку pictures.

Запрет индексации всего сайта

User-agent: *
Disallow: /

Данные примеры запрещают индексировать страницы (папки) всем сайтам. Вы также можете запретить индексировать страницы (сайт) каком-то конкретному поисковику. Например:

Запрет индексации сайта роботом Google и/или Яндекс

User-agent: Google # запретить индексировать сайт для Google
Disallow: /

User-agent: Yandex  # запретить индексировать сайт для Яндекса
Disallow: /
Внимание! Между первым Disalow: / и следующим User-agent: Yandex обязательно должен быть пробел (пустая строка).

Это все замечательно, так можно бесконечно добавлять туда файлы. А что если, у меня динамический сайт, и разделы постоянно появляются и мне надо какие-то разделы закрывать от индексации. Не буду же я добавлять в robots.txt постоянно новую строчку, пусть даже и динамически. Так этот файл вырастет когда-нибудь до небывалых высот, чего не хотелось бы.

Выход есть.

Запрет от индексации конкретной динамической  страницы

Для этого нужно всего лишь между тегами <head> и </head> вставить следующий код:

<meta name=”robots” content=”noindex, nofollow”>

Вот и все. Текущую страницу, поисковики индексировать не будут. Можете быть спокойны.

Наверх

html, robots.txt, seo

Комментарии

Популярные сообщения из этого блога

Как преобразовать строку в массив в ClickHouse / How to transform string to array in ClickHouse

Как разложить массив на несколько строк в ClickHouse

Экспорт одной таблицы базы данных или mysqldump одной таблицы (MySQL)