Ezt minden webmester tudjaaz emberek a keresőmotorokból kezdtek bekerülni az erőforrásba, annak indexelése szükséges. Ebben a cikkben arról fogunk beszélni, hogy mi a webhely-indexálás, hogyan hajtják végre, és mi a jelentése.
Tehát a "indexálás" szó önmagában azt jelentivalami nyilvántartásba vétel, a rendelkezésre álló anyagok összeírása. Ugyanez az elv érvényes a webhelyek indexelésére is. Valójában ezt a folyamatot nevezhetjük az internetes erőforrásokkal kapcsolatos információk bevitele a keresőmotorok adatbázisába is.
Így, amint a felhasználóvegye be a következő mondatot a Google keresőmezőbe, a szkript eredményt ad rá, beleértve a webhely címét és rövid leírását, amelyet alább látunk.
Indexelés (Yandex vagy Google - szerepek)nem játszik) elég egyszerű. Az Internet teljes webét, amely a keresőmotorok IP-címeire összpontosít, erőteljes robotok - „pókok” - szkennelik, amelyek információkat gyűjtnek az Ön webhelyéről. Mindegyik keresőmotornak hatalmas száma van, és a nap 24 órájában automatikusan működnek. Feladatuk az, hogy felkerülnek a webhelyére, és „elolvassa” az összes rajta lévő tartalmat, miközben az adatokat beviszik az adatbázisba.
Ezért elméletileg a webhelyek indexálása nem elegendőAz erőforrás tulajdonosától függ. A döntő tényező itt a keresőrobot, amely meglátogatja a webhelyet és feltárja azt. Ez befolyásolja webhelyének gyors megjelenését a keresési eredmények között.
Természetesen minden webmester számára előnyösaz erőforrás a lehető leggyorsabban megjelenik a keresési eredmények között. Ez egyrészt befolyásolja a webhely első pozícióba való kivonásának ütemtervét, és másodszor, amikor a webhely bevételszerzésének első lépései megkezdődnek. Így minél hamarabb a keresőrobot "elfogyasztja" az erőforrás összes oldalát, annál jobb.
Minden keresőmotornak megvan a saját algoritmusa.adatok beírása az adatbázisban található webhelyekről. Például az oldalak indexelése a Yandexben szakaszosan történik: a robotok folyamatosan feltérképezik a webhelyeket, majd információkat szerveznek, majd az úgynevezett frissítésre kerülnek, amikor minden változás hatályba lép. A társaság nem állapítja meg az ilyen rendezvények rendszerességét: 5–7 naponként tartják őket (általában), de 2 és 15 napon belül is tarthatnak.
Ugyanakkor a webhelyek indexelése a Google-ban másmodellben. Ebben a keresési rendszerben az ilyen "frissítéseket" (adatbázis-frissítéseket) rendszeresen tartják, e tekintetben nem kell minden alkalommal várakoznunk, amikor a robotok információkat írnak be az adatbázisba, majd néhány naponta egyszer megrendeljük.
A fentiek alapján az alábbiakat tehetjük megKövetkeztetés: A Yandex oldalai 1-2 frissítés után kerülnek hozzáadásra (azaz átlagosan 7-20 napon belül), és a Google-on ez sokkal gyorsabb - szó szerint egy nap alatt - történhet.
Ebben az esetben természetesen minden keresőmotorAz indexelés végrehajtásának sajátosságai vannak. Például a Yandex rendelkezik az úgynevezett „munkasebességgel” - egy robotmal, amely néhány órán belül adatokat tud bevinni az eredményekbe. Igaz, hogy az erőforráshoz való hozzáférés nem könnyű: ez elsősorban a hírekre és a valós időben fejlődő különféle kiemelkedő eseményekre vonatkozik.
A válasz arra a kérdésre, hogy hogyan kell adatokat beírni az Ön rólunkA keresőmotor-indexben szereplő webhely egyszerű és összetett. Az oldalak indexelése természetes jelenség, és ha nem is gondolsz rá, hanem mondjuk, tartsd fenn a blogod, és fokozatosan kitöltsd az információkkal, a keresőmotorok idővel „lenyelik” a tartalmat.
Egy másik dolog az, amikor fel kell gyorsítaniaegy oldal indexelése, például ha úgynevezett “műholdak” hálózattal rendelkezik (linkek vagy hirdetések eladására tervezett webhelyek, amelyek minősége általában rosszabb). Ebben az esetben intézkedéseket kell hozni annak érdekében, hogy a robotok észrevegyék az Ön webhelyét. A következők tekinthetők általánosnak: egy weboldal URL-jének hozzáadása egy speciális űrlaphoz (“AddUrl” -nek hívják); erőforrás cím futtatása link könyvtárakon keresztül; címek hozzáadása a könyvjelző könyvtárakhoz és még sok más. Hogyan működik ezek a módszerek, számos megbeszélés folyik a SEO fórumokon. Ahogy a gyakorlat azt mutatja, minden eset egyedi, és nehéz megtalálni az okokat, amelyek miatt az egyik webhelyet 10 napon belül indexelték, a másikat 2 hónap alatt.
Azonban a logika, amellyel tudodhogy gyorsabbá tegye a webhelyindexet, a rá mutató linkek elhelyezése alapján. Különösen az URL-ek beállításáról szólunk szabad és nyilvános webhelyeken (könyvjelzők, könyvtárak, blogok, fórumok); linkek vásárlására nagy és népszerűsített oldalakon (például a Sape csere segítségével); valamint webhelytérképet ad hozzá az addURL űrlaphoz. Lehetnek más módszerek is, de a már felsorolt módszereket biztonságosan a legnépszerűbbeknek lehet nevezni. Emlékezzünk, általában mindent a webhely és a tulajdonos szerencséje határoz meg.
Согласно официальной позиции всех поисковых rendszerek, az index olyan webhelyeket foglal magában, amelyek egy sor szűrőt átadnak. Milyen követelményeket tartalmaz az utóbbi, senki sem tudja. Csak az ismert, hogy az idő múlásával mindegyiket továbbfejlesztik, oly módon, hogy kiszorítsák azokat az álszereplőket, amelyek jövedelemszerzésre hoztak létre linkeket és egyéb erőforrásokat, amelyek nem tartalmaznak hasznos információkat a felhasználó számára. Természetesen ezen webhelyek készítői számára a fő feladat az oldalak indexelése a lehető legnagyobb mértékben (a látogatók vonzására, a linkek eladására stb.).
A korábbi információk alapján megtehetikövetkeztetés arról, hogy mely webhelyek valószínűleg nem esnek a keresési eredményekbe. Ugyanezt az információt a keresőmotorok hivatalos képviselői is megmondják. Mindenekelőtt ezek olyan webhelyek, amelyek nem egyedi, automatikusan létrehozott tartalmat tartalmaznak, amely a látogatók számára nem hasznos. Ezeket olyan erőforrások követik, amelyekben a linkek eladásához létrehozott minimális információt és így tovább.
Igaz, ha elemezi a keresési eredményeketrendszerekben, akkor benne megtalálja ezeket a webhelyeket. Ezért, ha olyan webhelyekről beszélünk, amelyek nem jelennek meg a SERP-ben, akkor nemcsak a nem egyedi tartalmat, hanem számos más tényezőt is figyelembe kell venni - rengeteg hivatkozás, helytelenül szervezett felépítés stb.
Поисковые системы сканируют весь контент, található az oldalon. Van azonban olyan technika, amellyel korlátozhatja a keresőrobotok hozzáférését egy adott szakaszhoz. Ez a robots.txt fájl használatával történik, amelyre a keresőmotor pókjai válaszolnak.
Ha ezt a fájlt a webhely gyökérzetébe helyezi,az oldalak indexelése az abban írt szkript szerint történik. Különösen az indexelést letilthatja egyetlen - Disallow paranccsal. Ráadásul a fájlban megjelölheti a webhely azon részeit is, amelyekre ez a tilalom vonatkozik. Például ahhoz, hogy megtiltsák a teljes webhely belépését az indexbe, elegendő egy „/” perjel megadása; és ahhoz, hogy kizárjuk a „bolt” szakaszt a kimenetről, elegendő, ha a következő tulajdonságot jelezzük a fájlban: „/ üzlet”. Mint láthatja, minden logikus és rendkívül egyszerű. Az oldalak indexelése nagyon egyszerűen bezáródik. Ugyanakkor a keresőrobotok felkerülnek az Ön oldalára, olvassa el a robots.txt fájlt, és nem írják be az adatokat az adatbázisba. Így könnyen manipulálhat, hogy megkeresse a webhelyek ezen vagy más jellemzőit. Most beszéljünk arról, hogyan ellenőrzik az indexet.
Számos módon megtudhatja, mennyiés mely oldalak vannak jelen a Yandex vagy a Google adatbázisban. Az első - a legegyszerűbb - a megfelelő lekérdezés beírása a keresési űrlapba. A következőképpen néz ki: site: domen.ru, ahol a domain.ru helyett ennek megfelelően írja le webhelyének címét. Amikor ilyen kérést tesz, a keresőmotor megjeleníti az összes találatot (oldalt) a megadott URL-en. Ezenkívül az összes oldal egyszerű felsorolása mellett az indexált anyagok teljes számát is láthatja (az „Eredmények száma” kifejezés jobb oldalán).
A második módszer az indexálás ellenőrzéseoldalak speciális szolgáltatásokat használva. Nagyon sok van ezek közül, kétségtelenül felhívhatja az xseo.in és a cy-pr.com webhelyeket. Az ilyen forrásokon nem csak az oldalak teljes számát láthatja, hanem meghatározhatja egyes oldalak minőségét is. Erre azonban csak akkor van szüksége, ha alaposabban ismeri ezt a témát. Ezek általában professzionális SEO eszközök.
Azt is szeretnék írni egy kicsit az úgynevezett„Kényszerített” indexelés, amikor egy személy különféle „agresszív” módszerekkel megpróbálja behozni webhelyét az indexbe. Az optimalizálók nem javasolják ezt.
A keresőmotorok legalább észreveszik a túlzottkataz új erőforrásokhoz kapcsolódó tevékenységek olyan szankciók alá vonhatók, amelyek hátrányosan befolyásolják a webhely állapotát. Ezért jobb mindent megtenni, hogy az oldalak indexelése a lehető legszorosabb legyen, fokozatos és egyenletes.