SEO-вопрос: в своё время для анализа переходов внутри сайта, мы обвешали свои внутренние ссылки utm-метками. Потом внезапно осознали, что страницы с utm-меткой, это отдельные страницы вообще говоря, и это может негативно влиять на ранжирование страниц в поисковых системах.Внимание, вопрос: действительно ли это так? Например
https://smart-lab.ru/q/shares_fundamental/?utm_source=main_menu
https://smart-lab.ru/q/shares_fundamental/?utm_source=quotes
Так лучше не делать ссылки внутри себя?Как тогда лучше считать откуда сколько переходят внутри сайта?
Это такая же история что с amp или тубо страницами, я не проверял есть ли они, но лучше запариться за низ.
В заголовках необходимо указать все доступные адреса для одной страницы контента
Смотри пример тут https://developers.google.com/search/docs/advanced/crawling/consolidate-duplicate-urls?hl=ru
А ссылки да, разные, как сказывается на поисковиках не знаю.
Сейчас отдает каноничную страницу с учетом хвоста из меток
link rel=«canonical» href="smart-lab.ru/q/shares_fundamental/?utm_source=main_menu"
А надо сделать так: link rel=«canonical» href="smart-lab.ru/q/shares_fundamental"
UPD. Движок сайта для безопасности теги обработал, вставил без "<> и https"
Наверно можно куки использовать, но с этим я плохо знаком.
У меня есть оч. способный SEO, но дорогой.
Однако на основной работе полностью не загружен.
Думаю, на удаленке можно договориться за разумный прайс.
Сигналь, если че
С уважением
Это была моя последняя работа в этой жизни) Ну или крайняя (чтобы не зарекаться). Я ушел в 2018, он остался ))) Подробности — в моем сраче с Криптокритикой.
С уважением
А так да, дубли плохо.
yandex.ru/support/webmaster/robot-workings/double.html
Как найти дубли страниц с незначащими GET-параметрами
webmaster.yandex.ru/blog/kak-nayti-dubli-stranits-s-neznachaschimi-get-parametrami
Зачем отслеживать дубли
1) Скорость обхода. Когда на сайте много дублей, роботы тратят больше времени и ресурсов на их обход, вместо того, чтобы обходить ценный контент. А значит, ценные страницы вашего сайта будут медленнее попадать в поиск.
2) Неуправляемость. Так как поисковой робот произвольно выбирает, какой из дублей показывать в поиске, то на поиск могут попасть не те страницы, которые вам нужны.
3) Влияние на поиск. Если незначащие параметры не добавлены в clean-param, робот может обходить эти страницы и считать их разными, не объединяя их в поиске. Тогда поисковый робот будет получать разные неагрегируемые сигналы по каждой из них. Если бы все сигналы получала одна страница, то она имела бы шансы показываться выше в поиске.
4) Нагрузка на сайт. Лишний обход роботом также дает нагрузку на сайт.
Я бы эти utm просто убрал.
clean-param поисковик Google не поддерживает.
support.google.com/webmasters/thread/68778044/%D0%94%D1%83%D0%B1%D0%BB%D0%B8-sa-x-ved-%D0%B8-clean-param-%D0%B2-robots?hl=ru
1. Добавьте в файл robots.txt директиву Clean-param, чтобы робот не учитывал незначащие GET-параметры в URL. Робот Яндекса, используя эту директиву, не будет много раз обходить повторяющийся контент. Значит, эффективность обхода повысится, а нагрузка на сайт снизится.
2. Если вы не можете добавить директиву Clean-param, укажите канонический адрес страницы, который будет участвовать в поиске. Это не уменьшит нагрузку на сайт: роботу Яндекса всё равно придётся обойти страницу, чтобы узнать о rel=canonical. Поэтому мы рекомендуем использовать Сlean-param как основной способ.
3. Если по каким-то причинам предыдущие пункты вам не подходят, закройте дубли от индексации при помощи директивы Disallow. Но в таком случае поиск Яндекса не будет получать никаких сигналов с запрещенных страниц. Поэтому мы рекомендуем использовать Сlean-param как основной способ.
smart-lab.ru/forum/sectors/