Hver webmaster ved det for at kunnefolk begyndte at besøge ressourcen fra søgemaskiner, dens indeksering er nødvendig. Denne artikel fortæller dig om, hvad stedindeksering er, hvordan den udføres, og hvad dens betydning er.
Så ordet "indeksering" betyder i sig selvoptagelse i registeret over noget, folketælling af materialer, der er tilgængelige. Det samme princip gælder for stedindeksering. Faktisk kan denne proces også kaldes indtastning af oplysninger om internetressourcer i databasen over søgemaskiner.
Således når brugeren er detfor at køre den næste sætning ind i Google-søgefeltet, returnerer scriptet det til et resultat, inklusive titlen på dit websted og dets korte beskrivelse, som vi ser nedenfor.
Selve indekseringen ("Yandex" er eller Google - rollerspiller ikke) er ret simpelt. Hele Internettet, der styres af basen af ip-adresser, som søgemaskiner har, scannes af kraftige robotter - "edderkopper", der indsamler oplysninger om dit websted. Hver af søgemaskinerne har et stort antal af dem, og de arbejder automatisk 24 timer i døgnet. Deres opgave er at gå til dit websted og "læse" alt indholdet på det, mens du indtaster dataene i databasen.
Derfor er i stedet teoretisk ikke indeksering af websteder nokafhænger af ejeren af ressourcen. Den afgørende faktor her er webcrawleren, der besøger webstedet og undersøger det. Dette er, hvad der påvirker, hvor hurtigt dit websted vises i søgeresultaterne.
Selvfølgelig er det gavnligt for enhver webmaster atressourcen dukkede op i søgeresultaterne så hurtigt som muligt. Dette vil først og fremmest påvirke tidspunktet for webstedets tilbagetrækning til de første positioner og for det andet, når de første faser af indtægtsgenerering på webstedet begynder. Jo hurtigere søgerobotten "spiser" alle siderne i din ressource, jo bedre.
Hver søgemaskine har sin egen algoritmeindtastning af data om websteder i din database. For eksempel udføres indekseringen af sider i Yandex i etaper: robotter scanner konstant websteder og organiserer derefter informationen, hvorefter den såkaldte "opdatering" finder sted, når alle ændringer træder i kraft. Virksomheden fastslår ikke regelmæssigheden af sådanne begivenheder: de afholdes hver 5-7 dage (som regel), men de kan dog finde sted om 2 eller 15 dage.
Samtidig går indekseringen af webstedet i Google efter en andenmodeller. I dette søgesystem udføres sådanne "opdateringer" (databaseopdateringer) regelmæssigt. I denne henseende er der ingen grund til at vente hver gang, indtil robotterne indtaster oplysningerne i databasen, og derefter bestilles det hvert par dage.
Baseret på ovenstående kan vi gøre følgendeKonklusion: sider i Yandex tilføjes efter 1-2 "opdateringer" (det vil sige i gennemsnit 7-20 dage), men i Google kan det ske meget hurtigere - bogstaveligt talt på en dag.
På samme tid har selvfølgelig enhver søgemaskine detder er nogle særlige forhold til, hvordan indeksering udføres. Yandex har for eksempel en såkaldt "hurtig robot" - en robot, der kan indtaste data i problemet om få timer. Det er sandt, at det ikke er let at få det til din ressource: dette gælder primært for nyheder og forskellige højt profilerede begivenheder, der udvikler sig i realtid.
Svaret på spørgsmålet om, hvordan du indtaster data om dinwebsted i indekset over søgemaskiner er både enkelt og komplekst. Indeksering af sider er et naturligt fænomen, og hvis du ikke engang tænker på det, men bare, sig, hold din blog og gradvist fylder den med information, vil søgemaskiner perfekt "sluge" dit indhold over tid.
En anden ting er, når du skal fremskyndesideindeksering, for eksempel hvis du har et netværk af såkaldte "satellitter" (websteder designet til at sælge links eller placere reklamer, hvis kvalitet normalt er ringere). I dette tilfælde skal du træffe foranstaltninger, så robotter bemærker dit websted. Almindeligt overvejet er følgende: tilføjelse af websteds URL til en speciel form (kaldet "AddUrl"); kørsel af ressourceadressen gennem linkmapperne; tilføje en adresse til bogmærkebøger og meget mere. Hvordan hver af disse metoder fungerer, er genstand for adskillige diskussioner på SEO-fora. Som praksis viser, er hvert tilfælde unikt, og det er vanskeligt mere nøjagtigt at finde årsagerne til, at et websted blev indekseret på 10 dage og et andet på 2 måneder.
Dog logikken, som man kanat få webstedet til at komme ind i indekset hurtigere er baseret på at placere links til det. Vi taler især om at indstille webadresser på gratis og offentlige websteder (bogmærker, telefonbøger, blogs, fora); om køb af links på store og promoverede websteder (f.eks. ved hjælp af Sape-udveksling) og også om at tilføje et sitemap til addURL-formularen. Måske er der andre metoder, men de, der allerede er nævnt, kan med sikkerhed kaldes de mest populære. Husk, generelt afhænger alt af webstedet og dets ejers held.
I henhold til den officielle holdning for alle søgemaskinersystemer inkluderer indekset websteder, der passerer et antal filtre. Ingen ved, hvilke krav sidstnævnte indeholder. Det er kun kendt, at de over tid forbedres på en sådan måde, at de filtrerer pseudosider, der er oprettet for at tjene penge ved at sælge links og andre ressourcer, der ikke indeholder nyttige oplysninger til brugeren. Naturligvis for skaberne af disse websteder er hovedopgaven at indeksere sider så meget som muligt (at tiltrække besøgende, sælge links osv.).
Baseret på de tidligere oplysninger kan du gørekonklusionen om, hvilke websteder der sandsynligvis ikke medtages i søgeresultaterne. De samme oplysninger meddeles af de officielle repræsentanter for søgemaskiner. Først og fremmest er dette websteder, der indeholder ikke-unikt, automatisk genereret indhold, der ikke er nyttigt for besøgende. Dette efterfølges af ressourcer med et minimum af information oprettet for at sælge links osv.
Sandt nok, hvis du analyserer resultaterne af søgemaskinersystemer, så alle disse websteder kan findes i det. Derfor, hvis vi taler om websteder, der ikke vil være til stede i søgeresultaterne, skal man ikke kun bemærke ikke-unikt indhold, men også en række andre faktorer - mange links, ukorrekt organiseret struktur osv.
Søgemaskiner gennemsøger alt indholdplaceret på stedet. Der er dog en teknik, hvormed du kan begrænse adgangen til søgerobotter til et bestemt afsnit. Dette gøres ved hjælp af en robots.txt-fil, som søgemaskinespiders reagerer på.
Hvis du placerer denne fil ved roden af webstedet,indeksering af sider finder sted i henhold til det script, der er skrevet i det. Især kan du deaktivere indeksering ved hjælp af en enkelt kommando - Disallow. Ud over det kan filen også angive de sektioner af webstedet, som dette forbud gælder for. For eksempel er det nok at angive en skråstreg "/" for at forhindre, at hele webstedet kommer ind i indekset og for at udelukke afsnittet "shop" fra output, er det nok at angive en sådan egenskab i din fil: "/ shop". Som du kan se, er alt logisk og ekstremt simpelt. Sideindeksering er meget let at lukke. Samtidig besøger søgerobotter din side, læser robots.txt og indtaster ikke data i databasen. Dette kan let manipuleres for at se bestemte karakteristika ved websteder i søgningen. Lad os nu tale om, hvordan indekset kontrolleres.
Der er flere måder at finde ud af, hvor megetog hvilke sider der findes i Yandex- eller Google-databasen. Den første - den enkleste - er at indtaste den tilsvarende anmodning i søgeformularen. Det ser sådan ud: site: domen.ru, hvor du i stedet for domain.ru skriver henholdsvis adressen på dit websted. Når du fremsætter en sådan anmodning, viser søgemaskinen alle de resultater (sider), der findes på den angivne URL. Derudover kan du ud over blot at liste alle sider også se det samlede antal indekserede materialer (til højre for sætningen "Antal resultater").
Anden måde er at kontrollere indekseringsider ved hjælp af specialiserede tjenester. Der er mange af dem nu, du kan navngive det xseo.in og cy-pr.com. På sådanne ressourcer kan du ikke kun se det samlede antal sider, men også bestemme kvaliteten af nogle af dem. Du har dog kun brug for dette, hvis du forstår emnet mere dybtgående. Som regel er dette professionelle SEO-værktøjer.
Jeg vil også gerne skrive lidt om den såkaldte"Tvunget" indeksering, når en person forsøger at køre sit websted ind i indekset ved hjælp af forskellige "aggressive" metoder. Optimizers anbefaler ikke at gøre dette.
Søgemaskiner bemærker i det mindste overdrevenaktivitet tilknyttet en ny ressource kan indføre en slags sanktioner, der negativt påvirker webstedets tilstand. Derfor er det bedst at gøre alt, så sideindeksering ser så organisk, gradvis og glat ud som muligt.