Если вы уже заглядывали в раздел посвященный аудиту сайтов, то наверняка обращали внимание, что одним из пунктов корректной оптимизации сайта был пункт - избавление от дублей страниц.
Чаще всего подобные дубли возникают при добавлении пагинации страниц.
Существует много мнений по воводу решения данной проблемы:
Именно использование атрибута canonical использую я на своих сайтах, об этом сегодня и пойдет речь.
Я опишу простое и эффективное на мой взгляд средство для борьбы с дублями страниц.
Первое, что нам нужно сделать создать новый сниппет, назовем его "Canonical" и впишем в его содержимое следующие несколько строк:
<?$id = $modx->documentIdentifier;
//В данной строчке мы получаем идентификатор текущего ресурса
if (isset($_GET['start'])){
//Здесь происходит проверка на наличие GET параметра start, который добавляется в MODx для паджинации.
$info=$modx->getPageInfo($id,'1','alias');
//Здесь мы получаем массив, содержащий информацию о ресурсу, в частности нам необходим только alias ресурса.
echo '<link rel="canonical" href="http://modx-evo.ru/" info="" alias="" />';}
Здесь происходит вывод, строки в которой говорится, что страница является канонической и указывает на основную страницу сайта. Вам нужно заменить адрес сайта на свой. Сохраните сниппет.
Теперь вам остается только добавить вызов сниппета между открывающим и закрывающем тегом head:
[ [Canonical]]
Если вы используете сниппет Jot для добавления комментариев к вашим статьям, то рекомендую обратить ваше внимание на то, что он также создает дублирующие страницы. Все дело в GET параметре ?jot, который добавляется при публикации комментария.
Самый простой способ избавить от таких страниц - добавить соответсввующие инструкции в файл robots.txt. Для этого вам потребуется отследить структуру вашего сайта и прописать следующие строки:
Disallow: /articles/*?*=*
Где articles это псевданим ресурса, который является контейнером для ваших статей, если у вас их несколько замените articles на "*".
Как мы знаем страница с результатами поиска также является источником появления дубликатов. С ней все обстоит намного проще, мы ее просто закроем от индексации в роботс:
Disallow: /search
Где search - это псевдоним страницы результатов поиска.
По мере обнаружения возможных причин дублирования контента я буду дополнять статью решениями.
Вот такое, простое и эффективное у нас получилось решение для борьбы с дублями страниц.
Постов: 1
Добавлен #1 на : Вт января 17, 2017, 13:03:12