Контакты | E-mail: info@modx-evo.ru | Заказать обратный звонок



Ускоряем индексацию сайта

Чем чаще поисковый робот посещает ваш сайт и, чем больше информации он скачает, тем быстрее вы попадаете в индекс. То, насколько часто робот посещает ваш ресурс, зависит от многих факторов, одним из них является и частота обновления контента на нем.

Для чего нужна быстрая индексация? Все просто, только благодаря скорости индексации, можно отследить, как какие-либо изменения повлияли на позиции в поисковой выдаче. А отслеживание результатов работы по продвижению позволяет сделать ряд выводов, пусть иногда и отрицательных, но это тоже замечательный опыт, полученный на практике.

Как добиться отличной индексации сайта.

Рассмотрим основные причины и пути их решения.

Исключаем «мусорные» страницы.

Если с порядком публикаций статей и структурой сайта все просто, то вот как избавиться от ненужного контента, не всегда понятно.

Давайте для начала найдем «мусор» на сайте. Если вы зарегистрированы в панели вебмастера Яндекс или Google, то с легкостью обнаружите их в списке проиндексированных.

как повлиять на скорость индексации сайта

Иначе, с помощью команды «site» поисковой системы Яндекс находим список всех проиндексированных материалов и просматриваем их. Для этого в строку поиска Яндекс вбиваем следующую конструкцию:

site:site.ru

Во-первых, необходимо избавиться от служебных и вспомогательных страниц, которые не несут информационного характера и не учувствуют в семантике: страница регистрации, авторизации, результатов поиска, личный кабинет пользователя, административная панель сайта и другие страницы. Их мы просто в грубой форме запрещаем индексировать, прописав соответствующие инструкции в файл robots.txt. Пример корректного файла robots.txt для CMS MODx Evolution я уже приводил.

Пример:
Disallow: /login
Disallow: /register
Disallow: /admin
Disallow: /profile
Disallow: /search
Disallow: /tags

И так для всех страниц, которые считаются «мусором».

Во-вторых, нужно исключить всевозможные дубли, которые возникают при «паджинации» страниц, работе фильтров, сортировке, выборе города или языка. Как правило, это связано с добавлением к основному URL дополнительных GET параметров:

http://site.com/articles/
и
http://site.com/articles/?page=2

Для подобных дублей существует прекрасный инструмент под названием атрибут rel=”canonical”, он позволяет исключить весь повторяющийся контент. Как это делается, вы можете посмотреть, я уже говорил об этом ранее. Я считаю, что данный подход преимуществен перед жестким запретом в «роботс». Но если же вы не хотите ничего «допиливать», то инструкция в robots.txt тоже будет работать:

Disallow: /articles/?page=*

О том как ускорить загрузку сайта, я расскажу чуть позже.


Просмотров: 3149


Статьи по теме:


Написать комментарий

Поля помеченные * обязательны для заполнения.



Будь в курсе!

Введите Ваш Email и имя.

Digital Newsletter

Чтобы отписаться нажмите сюда ».