История. Поисковые машины интернета

Популярные поисковикиКогда то давно (сам я этого не помню, рассказывал прадедушка))))homa, когда интернет ещё был только на пути становления, к сайтам (если их можно было так назвать) обращались по IP  адресам.
Т.е. так:
165.98.98.403
Или так:
123.48.89.02
Когда веб-ресурсов стало много, то обращаться к ним, таким образом, стало уже неудобно.
Кто ж запомнит с десяток IP адресов и без ошибки их напишет?
Поэтому люди стали придумывать специальные программы, которые занимались поиском веб-ресурсов  в интернете. Вначале это были очень примитивные программы.
После этого для сайтов была создана доменная система имён (DNS), которая используется до сих пор.

Что такое доменная система? Просто стали сопоставлять IP -адрес имени.
Чуть позднее, программы стали приобретать больший функционал, они уже могли сами искать сайты, индексировать их и сохранять информацию в свою базу. Это были т.н. программы-пауки и
программы-индексаторы. Первая такая программа называлась Archie (1990 год).
И как вы понимаете, такие поисковые программы стали очень популярны, потому что это было удобно, быстро и можно было найти почти любую информацию. В России также вели разработку поисковых машин, это были Рамблер и Апорт. А в 1997 году была
открыта поисковая машина Яндекс.

В 2000-х годах и даже чуть позднее, основное предназначение поисковых систем было искать новые сайты в интернете, скачивать к себе в базу информацию о них, и потом выдавать пользователю те ресурсы, которые наиболее подходят под его запрос.
Алгоритмы построения поисковой выдачи были мягко сказать, несовершенны, поэтому, при  небольших махинациях, можно было легко попасть на первые места в поисковой выдаче. Чем собственно и пользовались современники той «SEO оптимизации».
Яндекс вводил всё новые алгоритмы, дабы избежать накрутки SEO факторов, и попаданию плохих  сайтов в ТОП поисковой выдачи. Но у нас в России как говориться: «Голь на выдумки хитра», поэтому все алгоритмы обходили, причём довольно быстро.
Пока не пришёл АСЕССОР!

Асессор -специально обученный  человек, который работает в поисковике, просматривает сайты и вносит коррективы в алгоритм работы поисковых систем.

Современные поисковые системы и их цели

С приходом WEB 2.0(очень приблизительно -способ организации сайта, при котором пользователь не просто считывает информацию с сайта, но и активно включается в обмен информацией), и когда люди уже научились добывать огонь и делать приличные сайты, Яндекс стал использовать труд специально обученных людей – асессоров.
Асессоры проверяли сайты из ТОПа поисковой выдачи, анализировали их по ключевым показателям и ставили им свои оценки. В то же время появилась технология MatrixNet –
машинное обучение (искусственный обучаемый интеллект).
Т.е. когда поисковую машину обучали асессоры, и она стала понимать, где хороший сайт, а где плохой. С того времени утекло уже несколько лет.

А что же с Гугл?

Гугл тоже не дремал всё это время и также наращивал свою нейронную сеть, дабы завоевать часть Российского сегмента интернета. Ведь это же лакомый кусок пирога.
Как вы знаете для поисковых систем основной источник дохода – это контекстная реклама. Поэтому Яндекс и Гугл постоянно перетягивали друг на друга одно одеяло.
В итоге на данный момент у Яндекса чуть более 50% рынка, у Гугл около 40%, остальные это Рамблер, Mail.ru и т.д.

Формулировка цели для поисковой системы:
Влюбить в себя пользователя, чтобы он каждый раз искал информацию в интернете через нашу поисковую систему.
Как это сделать?
Всё просто!    Основная цель любого поисковика:

Предоставить пользователю сайты, которые максимально соответствуют его запросу.

Лично, на мой взгляд, на сегодняшний день, Яндекс очень хорошо поработал над всеми своими алгоритмами и у него стал совершенно иной поиск, не как раньше. Хотя(если честно) впереди всегда идёт Гугл.
К тому же сама концепция построения поисковой выдачи стала более прозрачной.

Продолжение

Добавить комментарий

Ваш e-mail не будет опубликован.