Очистка GET-параметров в robots.txt

Бесплатно делимся опытом, как выполнить базовую SEO-оптимизацию сайта и скрыть дубли страниц в вебмастере.
  • Повышаем качество SEO

  • Устраняем ошибки с дублями страниц

  • Повышаем позиции в выдаче

Очистка GET-параметров в robots.txt

Как найти get-параметр в ссылке

Найдите в ссылке знак "?". Все, что будет правее него и разделено знаком "&" - это параметры для очистки
get-параметры в ссылке

Зачем нужно очищать get-параметры?

Чтобы убрать дубли страниц из поисковой выдачи
Используйте директиву Clean-param, если адреса страниц сайта содержат GET-параметры (например, идентификаторы сессий, пользователей) или UTM-метки, которые не влияют на содержимое страницы.
Поисковые системы считает GET-параметры новыми страницами и по всем сигналам создают страницы-копии

Внимание: использование этой директивы может привести к ошибкам валидации страниц в поиске Google.

Как удалить из поиска варианты ссылок с get-параметрами.

Нужно в файл robots.txt добавить список парметров и страницы пропадут из поиска через некоторое время. Чтобы индексация прошла быстрее, можно отправить все страницы сайта на принудительную индексацию вручную. Для яндекса рекомендуем включить обход сайта по счетчику яндекс.метрика. Когда робот узнает о внесенных изменениях, страницы с незначащими GET-параметрами пропадут из поиска.
Если нужна помощь с удаление дублей, оставьте заявку
Директива clean-param не должна содержать кириллицу
Вам понравилась эта статья?

Когда пропадет проблема?

Когда робот узнает о внесенных изменениях, страницы с незначащими GET-параметрами пропадут из поиска.
Еще