Каждый вебмастер знает, что для того чтобы на его хората започнаха да влизат в ресурса от търсачките, необходимо е индексирането му. В тази статия ще говорим за това какво е индексиране на сайтове, как се извършва и какво е значението му.
Итак, слово «индексация» само по себе означает вписване в регистъра на нещо, преброяване на материали, които са на разположение. Същият принцип важи и за индексирането на сайтове. Всъщност този процес може да се нарече и въвеждане на информация за интернет ресурси в базата данни на търсачките.
По този начин, веднага щом потребителят езадвижвайте следващата фраза в полето за търсене на Google, скриптът ще върне резултат към нея, включително заглавието на вашия сайт и краткото му описание, което виждаме по-долу.
Самото индексиране (Yandex или Google - роли)не играе) е доста проста. Цялата мрежа на Интернет, фокусирана върху основата на IP адреси, които търсачките имат, се сканира от мощни роботи - „паяци“, които събират информация за вашия сайт. Всяка от търсачките има огромен брой от тях и те работят автоматично 24 часа на ден. Тяхната задача е да отидат на вашия сайт и да "прочетат" цялото съдържание на него, докато въвеждат данните в базата данни.
Следователно на теория индексирането на даден сайт не е достатъчноЗависи от собственика на ресурса. Решаващият фактор тук е роботът за търсене, който посещава сайта и го изследва. Това влияе върху това колко бързо се показва сайтът ви в резултатите от търсенето.
Разбира се, за всеки уеб администратор е от полза даресурсът се появи в резултатите от търсенето възможно най-бързо. Това ще се отрази, първо, върху времето за изтегляне на сайта на първите позиции и, второ, кога ще започнат първите етапи на осигуряване на приходи от сайта. По този начин, колкото по-рано роботът за търсене „изяде“ всички страници на вашия ресурс, толкова по-добре.
Каждая поисковая система имеет свой алгоритм въвеждане на данни за сайтове във вашата база данни. Например, индексирането на страници в Yandex се извършва на етапи: роботите обхождат сайтове постоянно, след това организират информация, след което се извършва така нареченото актуализиране, когато всички промени влязат в сила. Компанията не установява редовността на подобни събития: те се провеждат на всеки 5-7 дни (като правило), но те могат да се проведат след 2 и 15 дни.
В същото време индексирането на сайтове в Google е различномодел. В тази система за търсене такива „актуализации“ (актуализации на базата данни) се провеждат редовно и следователно не е необходимо да се чака всеки път, когато роботите въвеждат информация в базата данни, и след това тя ще бъде поръчана веднъж на няколко дни.
Въз основа на гореизложеното можем да направим следнотозаключение: страниците в Yandex се добавят след 1-2 актуализации (тоест средно за 7-20 дни), а в Google това може да се случи много по-бързо - буквално за ден.
При этом, разумеется, у каждой поисковой машины Има особености как се извършва индексирането. Yandex, например, има така наречената „скорост на работа“ - робот, който може да въведе данни в резултатите за няколко часа. Вярно е, че да го насочите към вашия ресурс не е лесно: това се отнася главно за новини и различни грандиозни събития, развиващи се в реално време.
Ответ на вопрос о том, как занести данные о своем Сайтът в индекса на търсачките е както прост, така и сложен. Индексирането на страници е естествено явление и ако дори не мислите за това, а просто, да речем, поддържайте блога си, постепенно го пълнете с информация, търсачките ще „поглъщат“ вашето съдържание с течение на времето.
Друго нещо е, когато трябва да ускоритеиндексиране на страница, например, ако имате мрежа от така наречените „спътници“ (сайтове, предназначени да продават връзки или реклами, качеството на които по правило е по-лошо). В този случай е необходимо да се вземат мерки, така че роботите да забележат вашия сайт. Следните се считат за често срещани: добавяне на URL адрес на уебсайт към специална форма (нарича се „AddUrl“); пускане на адрес на ресурс чрез директории за връзки; добавяне на адреси в директории с отметки и много други. Как работи всеки от тези методи, има многобройни дискусии на SEO форуми. Както показва практиката, всеки случай е уникален и е трудно да се намерят причините, поради които единият сайт е индексиран за 10 дни, а другият за 2 месеца.
Обаче логиката, с която можетеза да направите индекса на сайта по-бърз въз основа на поставянето на връзки към него. По-специално, говорим за задаване на URL адреса на безплатни и обществено достъпни сайтове (отметки, директории, блогове, форуми); за закупуване на връзки в големи и популярни сайтове (използвайки например борсата на Sape); както и добавяне на карта на сайта към формуляра addURL. Може да има и други методи, но тези, които вече са изброени, спокойно могат да се нарекат най-популярните. Спомнете си, като цяло всичко зависи от сайта и късмета на неговия собственик.
Според официалната позиция на всички търсачкисистеми, индексът включва сайтове, които преминават поредица от филтри. Какви изисквания съдържа последната, никой не знае. Известно е само, че с течение на времето всички те се усъвършенстват по такъв начин, че да се отсеят псевдосайтове, създадени за печелене от продажба на връзки и други ресурси, които не носят полезна информация за потребителя. Разбира се, за създателите на тези сайтове основната задача е да индексират страниците колкото е възможно повече (да привличат посетители, да продават връзки и т.н.).
Въз основа на предишната информация можете да го направитезаключение за това кои сайтове най-вероятно няма да бъдат включени в резултатите от търсенето. Същата информация се съобщава от официалните представители на търсачките. На първо място, това са сайтове, съдържащи не уникално, автоматично генерирано съдържание, което не е полезно за посетителите. Това е последвано от ресурси с минимум информация, създадена за продажба на връзки и т.н.
Вярно е, ако анализирате резултатите от търсенетосистеми, можете да намерите всички тези сайтове в него. Следователно, ако говорим за сайтове, които няма да присъстват в резултатите от търсенето, трябва да се отбележи не само не уникално съдържание, но и редица други фактори - много връзки, неправилно организирана структура и т.н.
Търсачките обхождат цялото съдържаниеразположен на сайта. Съществува обаче техника, с която можете да ограничите достъпа на роботите за търсене до определен раздел. Това се прави с помощта на файла robots.txt, на който паяците на търсачката реагират.
Ако поставите този файл в корена на сайта,индексирането на страниците ще се извърши според сценария, който е написан в него. По-специално можете да деактивирате индексирането с помощта на една команда - Disallow. В допълнение към него файлът може да посочва и разделите на сайта, за които ще се прилага тази забрана. Например, за да забраните влизането в индекса на целия сайт, е достатъчно да посочите една наклонена черта "/"; и за да изключите секцията "shop" от изхода, достатъчно е да посочите такава характеристика във вашия файл: "/ shop". Както можете да видите, всичко е логично и изключително просто. Индексирането на страници е много лесно да се затвори. В същото време роботите за търсене посещават страницата ви, четат robots.txt и не въвеждат данни в базата данни. Това може лесно да се манипулира, за да се видят определени характеристики на сайтовете в търсенето. Сега нека поговорим за това как се проверява индексът.
Има няколко начина да разберете колкои какви страници има в базата данни на Yandex или Google. Първият - най-простият - е да въведете съответната заявка във формата за търсене. Изглежда така: site: domen.ru, където вместо domain.ru пишете, съответно, адреса на вашия сайт. Когато направите такава заявка, търсачката ще покаже всички резултати (страници), намиращи се на посочения URL адрес. Освен това, освен просто изброяване на всички страници, можете да видите и общия брой на индексирания материал (вдясно от фразата „Брой резултати“).
Вторият начин е да проверите индексиранетостраници, използващи специализирани услуги. Сега има много от тях, можете да го кръстите xseo.in и cy-pr.com. На такива ресурси можете не само да видите общия брой страници, но и да определите качеството на някои от тях. Това ви трябва обаче само ако разбирате по-задълбочено тази тема. Като правило това са професионални SEO инструменти.
Бих искал също да напиша малко за т.нар„Принудително“ индексиране, когато човек се опитва да вкара своя сайт в индекса чрез различни „агресивни“ методи. Оптимизаторите не препоръчват да правите това.
Търсачките поне забелязват прекомерностдейност, свързана с нов ресурс, може да въведе някакъв вид санкции, които влияят негативно върху състоянието на сайта. Ето защо е най-добре да направите всичко, така че индексирането на страниците да изглежда възможно най-органично, постепенно и гладко.