Интернет Статьи

Как работают поисковые машины?

  Поисковые машины используют автоматизированное программное обеспечение для создания и последующего обновления своих индексов. Такие программы называются spider’ами (от англ. spider-паук). Когда поисковая машина “узнает” о новой Web странице, spider посещяет ее и переходит к другим страницам того же сайта, следуя по ссылкам, которые находит на первой из них. Это называется crawling (от англ. crawling-“ползание” по сайту).

Spider, crawler или search bot-это программа, которая автоматически делает выборку Web страниц и “ходит”(“ползает”) по обнаруживающимся на них ссылкам, ища другие страницы этого сайта.
 

Сведения, которые добывает spider, включаются в индекс поисковой машины-иногда при участии человека, иногда автоматически. Время от времени “паук” навещяет каждую знакомую ему страницу и записывает любые найденные им изменения. Зачастую между посещением сайта spider’ом и появлением соответствующий записи в индексе проходит какое-то время (иногда возникает задержка). В базе данных поисковой машины может содержаться множество отдельных страниц с результатами поиска, полученными от одной из поисковых машин.
 Индекс, используемый поисковой машиной или каталогом, также может называться каталогом.

Теги

Похожие статьи

Кнопка «Наверх»