Как работают поисковые системы

Поисковая система – это огромный комплекс, состоящий из оборудования, предназначенного для вычислений, хранения данных, а так же из программного обеспечения, предназначенного для сканирования сайтов в интернете (специальной программой – сканером-пауком).

Что понимается под сканированием сайта? Поисковые системы собирают информацию со всех страниц сайтов путем скачивания страниц в свои базы данных для дальнейшей обработки и учета в формировании поисковой выдачи. Это примерно как человек «сканирует» переходя с одной страницы на другую в поисках нужной информации,  только поисковая система (ПС) делает это в несколько миллиардов раз быстрее.

Роль поисковой системы. Поскольку поисковые системы могут сканировать и обрабатывать информацию в несколько миллиардов раз быстрее, чем человек, роль поисковых систем как раз и состоит в систематизации информации и предоставлению ее пользователям в зависимости от их потребностей. Свои потребности пользователи выражают в виде поисковой фразы (или еще называют поисковый запрос, ключ, кей, ключевая фраза). Поэтому поисковику для выполнения своей роли нужно правильно распознавать потребности человека по его поисковой фразе.

 

Как работает поисковая система: схема устройства

Схема устройства поисковой системы

 

Серверное помещение поисковой системы Яндекс

Поисковую систему можно сравнить с библиотечным каталогом. Однако библиотечный каталог содержит информацию, составленную из Заголовков книг, их авторов и номера книжного издания ISBN (англ. International Standard Book Number, рус. Международный стандартный книжный номер). За соответствие же номера ISBN несут ответственность редакции, в которых тиражируются книжные издания. А в случае Интернет-сайтов, ответственность за информацию в заголовках страниц и сайтов несут сами авторы сайтов. Поэтому в данном  случае поисковой системе необходимо самой контролировать этот процесс. В связи с этим, поисковым системам приходится не только учитывать заголовки страниц, но и и саму информацию представленную на всех страницах в интернете. И в случае нарушения правил предоставления информации, фильтровать такие страницы.

 

Таким образом, можем перейти к определению цели поисковой системы. Цель поисковой системы заключается в предоставлении информации пользователю по его запросу, которая удовлетворит пользователя.

Как мы уже определились выше, цель оптимизатора сайта заключается в том, что он повлияет на поисковую выдачу так, что его сайт окажется выше других. В таком случае, если страница, которую он продвигает, удовлетворит пользователя, то цели оптимизатора и поисковой системы совпадут (такая оптимизация сайтов называется – белая оптимизация). А если страница, которую он продвигает, НЕ удовлетворит пользователя, то цели оптимизатора и поисковой системы НЕ совпадут (такая оптимизация сайтов называется – черная оптимизация).

Поисковые системы кроме цели удовлетворить пользователей, имеет и финансовую цель, поскольку являются коммерческими организациями и обязаны зарабатывать деньги в результатах своей деятельности. Поэтому поисковые системы всегда боролись, борются и будут бороться с черными оптимизаторами, которые, по сути, являются претендентами на часть дохода поисковых систем. Продвигая свой сайт самостоятельно нужно помнить, что заниматься черной оптимизацией всегда является большим риском не достичь результата, поскольку любые методы черной оптимизации рано или поздно распознаются поисковиками.

Как же влиять на выдачу поисковых систем Яндекс и Google при сео-оптимизации сайта? Для этого, нужно понимать какие факторы влияют на позиции сайта по тому либо иному запросу. Нужно начать с того что по каждому запросу в выдачи поисковой системе участвует всего одна страница сайта (за редким исключением в выдаче может присутствовать 2 либо 3 страницы). Поэтому раскручивая свой собственный сайт в Яндекс либо Google, нужно планировать продвижение по каждому ключевому слову для отдельно страницы своего сайта. Этот процесс называется: составление семантического ядра сайта и распределение ключевых запросов по страницам сайта. Мы перейдем к нему позже, в следующем модуле, а пока двинемся дальше.

 

Какие страницы участвуют в выдаче поисковых систем

 

В выдаче поисковых систем принимает участие по одной страницы с каждого сайта (такие страницы считаются целевыми для поисковой фразы)

В некоторых случаях в выдаче поисковых систем участвуют несколько страниц

В некоторых случаях в результатах поисковой выдачи может отображаться несколько страниц одного сайта

 

Заметим что, не смотря на то, что поисковые системы, сканируют миллиарды новых страниц в сутки, выдача по определенному запросу изменяется не так часто. Это связанно с колоссальными затратами ресурсов на обработку данных. Поисковая выдача Google обновляется один раз в 1–2 дня, а Яндекса – один раз в 5-9 дней. Такие обновления выдачи результатов поиска по ключевому слову называют АП выдачи.

Для совершенствования результатов поиска в компаниях, разработавших

поисковые системы работает штат программистов, которые постоянно усовершенствуют работу алгоритмов поисковых систем, делая их более совершенными. Основная цель таких алгоритмов – правильно отсортировать страницы сайтов в результатах выдачи поисковика (такое действие называют – ранжирование).

 

На сегодняшний день алгоритмы учитывают огромное количество факторов, влияющих на позицию страницы выдачи. К ним относятся как факторы, относящиеся непосредственно к самой странице, так и факторы, относящиеся ко всему сайту.

Можно выделить 3 направления факторов, влияющих на позиции страницы в выдаче:

  1. Внутренние факторы сайта (тексты и ссылки внутри сайта)
  2. Внешние факторы (ссылающиеся страницы и сайты)
  3. Поведенческие факторы (действия пользователь на сайте, какой результат доволен / не доволен пользователь полученной информацией).

История развития поисковых систем. Изначально первые поисковые системы учитывали лишь внутренние факторы страниц. Люди сами ранжировали результаты выдачи, путем просмотра всех предлагаемых страниц. Были даже такие времена, когда страницы выводились в алфавитном порядке по заголовку.

Первыми предложили учитывать внешние факторы (ссылки) в своих алгоритмах ранжирования создатели Google в своей диссертационной работе. Учет внешних ссылок на страницы сайта был похож на цитирование в научной деятельности – Чем больше других авторов ссылаются на Вас, тем больший у Вас авторитет в вашей области. Таким же образом более приоритетные сайты должны находиться выше в поисковой выдаче. Эту идею первой начала использовать на практике созданная тогда поисковая система Google, но вскоре использованная в своих алгоритмах и всеми остальными популярными поисковиками. Тогда же в связи с появлением спроса на ссылки, их начали продавать и соответственно покупать. Тогда же появились и первые биржи ссылок, например, хорошо нам известная биржа Sape.

 

Влияние ссылок на поисковое продвижение сайта в Яндекс и Google. Было время, когда влияние ссылок было колоссальным на мнение поисковых систем о сайте. Тогда было достаточно позаботиться лишь о наличие достаточного количества ссылок на свой сайт, чтобы оказаться на первых позициях выдачи. Такие методы относили к серым методам продвижения. А именно, если страница, которую продвигали, была «не нужна» пользователю, то оптимизация была черной, а если страница оказывалась полезной, то оптимизацию можно было назвать белой. Тогда же появились так называемые ссылочные агрегаторы (SeoPult, Webeffector, Rookee и др.), которые брали на себя всю рутину по закупке, проверке и оплаты огромного количества ссылок. Сегодня, к счастью такие методы перестали работать в связи с сильнейшим злоупотреблением ними. Влияние ссылок на поисковую выдачу никогда не исчезнет, но сегодня ссылки перестали обладать основной ролью в продвижении сайтов. Большее влияние оказывают поведенческие факторы, которые тоже можно имитировать (черная оптимизация), но как оказалось сделать это сложнее.

Поисковые системы постоянно ведут борьбу с черным seo. В штате Яндекса даже имеются специально обученные сотрудники, так называемые асессоры, которые вручную просматривают поисковую выдачу и ставят оценки страницам, попавшим на первые места выдачи. Эти действия используются для усовершенствования алгоритмов, работающих на схемах искусственного интеллекта, путем их обучения.

К поведенческим относиться много факторов, которые учитываются поисковыми системами, например: количество просмотренных страниц пользователем на сайте, время просмотра и т.д. В основном алгоритмы учета поведенческих факторов пытаются определить страницы, которые нравятся пользователю. Для таких страницы и повышаются позиции в поисковой выдаче. А позиции тех страниц, которые не нравятся пользователя (например, пользователь закрывает страницу сайта не перейдя ни на одну другую), наоборот понижаются.

Модуль 1. Что нужно знать, чтобы научиться продвигать сайт самому

Модуль 2. Составление семантического ядра сайта.

Модуль 3. Внутренняя оптимизация сайта.

Модуль 4. Внешняя оптимизация сайта.

Модуль 5. Оценка эффективности раскрутки сайта при помощи Веб-аналитики.

Модуль 6. Фильтры поисковых систем.

Print Friendly Version of this pagePrint Get a PDF version of this webpagePDF