Технические ошибки, которые должны быть выявлены и устранены при внутренней оптимизации сайта
Так же на стадии внутренней оптимизации сайта очень важно выявить и устранить технические проблемы в работе сайта и настроек сервера. К ним относятся следующие параметры и нюансы.
Оптимизация времени загрузки страниц сайта. Желательно, чтобы время загрузки страниц сайта не превышало 1 секунду. В некоторых случаях при загрузке больших страниц можно, чобы время загрузки не превышало 3-ех секунд.
Корректный ответ сервера при загрузке страниц. При отдаче страницы, сервер сообщает специальный код:
200 – страница доступна, такие страницы поисковики индексируют.
301 – страница переехала навсегда и теперь доступна по другому адресу, производиться редирект на новый адрес. Поисковики индексируют страницы по новому адресу, при этом обычно учитывают вес и возраст старых страниц. Поэтому данный способ хорошо подходит при смене адреса сайта либо вида адресов страниц на сайте.
404 – страница не доступна. Обычная такая ошибка происходит, когда введен не правильный адрес страницы (URL). При вводе неправильного адреса страницы, код нужно отдавать корректно. Например, если отдавать код 200, то поисковик проиндексирует такую страницу, но она будет некачественной по мнению поисковой машины. Большое количество некачественных страниц ведет к недоверию по отношению к сайту и повышает вероятность попадание под фильтр, после чего сайт не будет участвовать в поисковой выдаче.
Дубли страниц на сайте. Страницы с одинаковым содержимым, но с разными адресами страниц нужно закрывать от индексации поисковыми машинами. Поскольку текст на таких страницах будет считаться неуникальным, по мнению поисковиков. Большое количество некачественных страниц (с уникальностью текста меньше 70%) может так же привести к увеличению недоверия поисковых систем по отношению к сайту.
Например, по мнению поисковых систем дублями страниц являются:
- http://shtepsel.com/category/perehodniki-dlya-canon/
- http://shtepsel.com/category/perehodniki-dlya-canon/?order=title
На первой из них товары упорядочены рейтингу, а на второй – по алфавиту.
Такие страницы нужно закрывать от индексации поисковыми системами. Сделать это можно одним из трех способов.
1) Закрытие дублей страниц в файле robots.txt. Поисковики учитывают файл, который называется robots.txt и находиться в корне сайта. Например, для сайта shtepsel.com он доступен по адресу:
http://shtepsel.com/robots.txt
В данный файл необходимо занести служебную информацию вид:
User-agent: *
Disallow: /*/?order=*
Это даст знать поисковым системам, что страницы, содержащие в своем адресе строку /?order= индексировать не следует. Таким образом, мы избавимся от дублей.
2) Закрытие дублей страниц специальным мета-тегом в html-коде страницы. Поисковые системы учитываю специальный мета-тег, который расположен в блоке <head> html-кода страницы. Например,
<meta name="robots" content="noindex,follow">
Такой тег позволяет не включать страницу в индекс поисковой системы, но при этом учитывать ссылки с нее.
<meta name="robots" content="noindex,nofollow">
Такой тег позволяет не включать страницу в индекс поисковой системы и так же не учитывать ссылки с нее.
3) Указание на каноническую систему. Если поисковая система все же обнаруживает дубль страницы, не закрытый от индексации, то она пробует определить каноническую (главную) страницу, которая и будет участвовать в результатах поиска. Не всегда поисковая система выбирает главную страницу должным образом так, как этого хочет оптимизатор. Можно явно обозначить адрес канонической страницы в html-коде страницы, являющейся дублем.
Например, в блоке <head> страницы
http://shtepsel.com/category/perehodniki-dlya-canon/?order=title
можно указать тег:
<link rel="canonical" href="http://shtepsel.com/category/perehodniki-dlya-canon/"/>
Таким образом, можно «дать знать» поисковику, что данная страница не является главной и ее не нужно индексировать, а главной является страница:
http://shtepsel.com/category/perehodniki-dlya-canon/
Кроме того, закрывать от индексации необходимо страницы с малым объемом информации. Например, справочные страницы с очень малым объемом информации (150 символов и меньше). Страницы галереи фотографий, если таких страниц на сайте очень много, так же можно закрыть от индексации. Служебные страницы, не имеющие никакой важной информации для поисковой машины, например, добавление товара в корзину. На некоторых старых версиях движков для того, чтобы следить за действиями каждого пользователя, при каждом новом обращении к сайту формируется новая сессия, которая обозначается параметром GET путем присвоения уникального значения сессии определенной переменной. Например, к адресу страницы может добавляться параметр g2_GALLERYSID=565423432423423423, значение которого будет меняться при повторном заходе на сайт. Такие страницы ни в коем случае не должны попадать в индекс поисковой системы, поскольку при каждом обращении к сайту, поисковая система будет получать новые страницы и никогда не сможет проиндексировать весь сайт. Еще нужно закрывать страницы с не уникальной информацией, скопированной с других сайтов. Разрешать индексировать такие не уникальны страницы, если, конечно, они имеются, нельзя. Поскольку это может привести недоверию и даже бану сайта в поисковой системе.
Человеко-понятные URL (ЧПУ).
При создании динамических сайтов часто всем сайтов управляет один индексный файл, который находиться в корне сайта и обычно называется index.php.
В таком случае обращение к определенной странице сайта производиться путем передачи необходимых параметров, которые пишутся после служебного символа ? и разделяются другим служебным символом: &, например:
http://shtepsel.com/index.php?choice=good&action=goodList&category_id=223
передаются параметры choice=good, action=goodList и category_id=223.
Параметры дают понять движку что нужно отобразить на странице – категорию товаров или сам товар, а так же если категорию, то какую, если сам товар, то какой.
Такие адреса не очень удобны с точки зрения использования. Поэтому сейчас чаще путем несложных настроек, переводят работу любого движка на другие адреса, более понятные для пользователя, например:
http://shtepsel.com/category/povyshayushchie-perehodnye-kolca/
Такие страницы может обрабатывать все тот же индексный файл, «понимая» что именно нужно отобразить и какой id при этом использовать. Соответствия этих id и адресов страниц при этом хранятся в базе данных.
Такие адреса называют человеко-понятными. Их больше «любят» поисковые системы в отличие от динамических адресов. Кроме того, ключевые слова, которые используются в формировании адресов страниц учитываются при ранжировании сайтов (см. подчеркнутые красным слова в поисковой выдаче на примере, показанном на рисунке ). Поисковые системы даже выделяют такие слова жирным.
Карта сайта. Немаловажной является возможность указать поисковику сразу все страницы сайта. Так ему «легче» проиндексировать сайт. Такая возможность есть во многих движка. Обычно карта сайта формируется в xml-формате, который прекрасно понимают поисковики. Так же есть сторонние сервисы, которые позволяют просканировать сайт и сформировать карту сайта в формате xml. В панели вебмастера поисковых машин можно указать на карту сайта.
- Для комментирования войдите или зарегистрируйтесь