Очистка GET-параметров в robots.txt

Делимся опытом, как выполнить базовую SEO-оптимизацию сайта и скрыть дубли страниц в вебмастере

Как найти get-параметр в ссылке

Найдите в ссылке знак "?". Все, что будет правее него и разделено знаком "&" - это параметры для очистки
get-параметры в ссылке

Зачем нужно очищать get-параметры?

Чтобы убрать дубли страниц из поисковой выдачи
Используйте директиву Clean-param, если адреса страниц сайта содержат GET-параметры (например, идентификаторы сессий, пользователей) или UTM-метки, которые не влияют на содержимое страницы.

Внимание: использование этой директивы может привести к ошибкам валидации страниц в поиске Google.

Как удалить из поиска варианты ссылок с get-параметрами.

Нужно в файл robots.txt добавить список парметров и страницы пропадут из поиска через некоторое время. Чтобы индексация прошла быстрее, можно отправить все страницы сайта на принудительную индексацию вручную. Для яндекса рекомендуем включить обход сайта по счетчику яндекс.метрика.
Если нужна помощь с удаление дублей, оставьте заявку
Вам понравилась эта статья?