Vejledninger

Hvad er gennemsøgningsbudgettet

Indholdsfortegnelse:

Anonim

Et udtryk, der nævnes meget i dag i SEO-samfundet, er gennemsøgningsbudget. Hvis vi oversætter det, vil det læse som "tracking budget". Det er en sjælden mellemgrund, men dette er et meget gammelt koncept inden for SEO-området.

De, der arbejder med store projekter som store e-handel, indholdsportaler og SEO-specialister, forstår gennemsøgningsbudgettet som det tidspunkt, hvor Google bruger at læse siderne på dit websted på en given dag.

Indholdsindeks

Det er tid, det tager Google crawler at læse siderne på et websted. Men denne gang afhænger crawlen på dit websted af flere faktorer; såsom webstedsmyndighed, procentdel af duplikatindhold, sidefejl og mange flere.

I henhold til Googles officielle webmaster-blog er det dog angivet, at ikke alle skal være bekymrede over dette spørgsmål om crawlbudget. Det vil sige, hvis de har et websted med et par dusin sider, er der ingen grund til at bekymre sig om dette problem med sidesøgning, da Google gør det uden problemer.

Men hvis du har en online butik eller et andet webprojekt med et par tusinde sider, bliver du nødt til at være nøje opmærksom og optimere gennemsøgningsbudgettet for dit websted.

Gennemgang af budget og webpositionering

Fra Google bekræfter de, at gennemsøgningsbudgettet ikke har indflydelse på positioneringen, men at det alligevel kan påvirke og undertiden kontrollere negativt andre af de mere end 200 faktorer, der skal placeres i søgemaskinen.

Men hvorfor ønsker vi, at Google skal gennemgå siderne på vores websted flere gange? På den anden side finder vi flere SEO-eksperter, der sikrer, at et godt crawlbudget forbedrer den samlede placering af websidens sider i rangeringen og dermed øger den organiske trafik.

Grundlæggende har Google en bestemt tid til at bruge på dit websted, da det er nødvendigt at bestemme, hvor meget tid det vil bruge på hvert af webstederne rundt om i verden, som det skal beregnes, hvor mange samtidige forbindelser det vil være i stand til at foretage for at læse siderne på dit websted.

Kvaliteten af ​​webstedet

Google bruger tid på at være i stand til at oprette forbindelse på webstedet, læse disse sider og stoppe denne læsning. Gentag dette hele dagen, men der er altid en brøkdel af tiden. Denne brøkdel af tiden er normalt proportional med autoriteten på dit websted, antallet af nye sider og den relevans, det har over for Google.

Dette gives af kvaliteten af ​​dit indhold og de links, der peger på webstedet, det vil sige, hvis du har mange kvalitetslink, der peger, kan det være, at Google forstår dig med mere kvalitet og bruger mere tid på dit websted, så længe der er en højere antal sider.

Generelt ændrer gennemsøgningsbudgettet ikke meget for et websted på 10, 50 eller 100 sider, så på nogle få sider er der ikke meget forskel. Men for store websteder, hvis Google har et øjeblik til at gå igennem dit websted, og du fortæller det, hvad de skal læse, vil det være meget nyttigt for crawleren og udføre deres gennemsøgningsopgave hurtigere.

Angiv, hvilke er de vigtige sider

Først skal du kortlægge en mere organiseret arkitektur af webstedsinformation, bestemme hvilke sider der er unødvendige og ikke lade bestemte sider indekseres ved at kontrollere robots.txt- filen.

Google bør ikke bruge tid i søgesektionen på webstedet eller endda i det afsnit, hvor der er filternavigation, f.eks. Som i en online butik, hvor du kan vælge skostørrelse, størrelsen på lejligheden eller skjorte farve. Disse filtre er, hvad folk normalt kalder “faced navigation” eller “navigation filters”.

Nogle webmastere har en tendens til at blokere disse filtre og disse søgninger i robots.txt-filen, bare for at Google ikke bruger tid på at læse disse sider, fordi de faktisk er fokuseret på den bruger, der leder efter denne oplevelse, og de er indhold, der allerede er tilgængelig på andre interne sider på webstedet.

Vi anbefaler at læse: Fejl, der skal undgås, når du opretter et websted

En anden linje er, at ved at etablere, hvilke er de vigtige sider på dit websted, sparer du Googles tid på sider, der har duplikeret indhold, såsom tilfældet med ansigtet navigation, siden om privatlivspolitik, vilkår og betingelser og ikke du vil have dem til at blive læst. Disse sider vil kun være tilgængelige for brugere, der ønsker at se disse sider.

Tid bør ikke spildes på disse sider med lav værdi, da du ikke ønsker at rangere for dem, og de gør ikke den mindste forskel i dit liv, men de skal være der, fordi nogle brugere alligevel vil konsultere disse oplysninger.

Sådan fungerer crawlbudget internt

Generelt er gennemsøgningsbudgettet baseret på arkitektur. Du definerer linkene til de sider, som Google vil være i stand til at læse og prioritere dem efter deres vigtighedsniveau.

Når alt kommer til alt er linkene, der kommer ud af disse sider, dem, der sandsynligvis vil blive prioriteret af Google. Så det er værd at logikken at tænke meget godt på intern sammenkobling og den måde, din side er struktureret på.

Crawl-budgettet er det tidspunkt, hvor Google bruger for at være i stand til at læse, forstå informationen på webstedet og evaluere elementer som organisering af arkitekturen og blokering i robots.txt. Brug af nofollow- tagget på et link forhindrer Google i at følge igennem på det link. For eksempel, hvis et link har en nofollow-attribut, men et andet internt link ikke har en at komme til siden, vil Google tage den anden sti, så du bruger mindre tid.

Fordelene ved et optimeret websted

Der er ting, der kan hjælpe dig med at læse flere sider dagligt, hvilket kan være nyttigt til ethvert websted. For eksempel, hvis din server er hurtigere, vil Google på det tidspunkt anmode om flere sider.

Hvis din side er komprimeret, vil Google i disse anmodninger anmode om flere sider. Og hvis du har en ren og passende kode, vil Google også modtage en mere komprimeret side i slutningen af ​​dagen med bedre bits. Det vil sige, at optimeringen af webstedet, hastigheden på webstedet og serveren har stor indflydelse på spørgsmålet om gennemsøgningsbudget.

Sådan beregnes dit websides gennemsøgningsbudget

Antallet af gange, som Googles søgemaskinspider gennemsøger dit websted i en bestemt tidsperiode, er det, vi kalder "gennemsøgningsbudget". Derfor, hvis Googlebot besøger dit websted 32 gange om dagen, kan vi sige, at Googles sporingsbudget er ca. 960 om måneden.

Du kan bruge værktøjer som Google Search Console og Bing Webmasterværktøjer til at beregne det omtrentlige crawlbudget på dit websted. Bare log ind og gå til Tracking> Tracking Statistics for at se det gennemsnitlige antal sporede sider pr. Dag.

Crawlbudget og SEO: er de ens?

Ja og nej Mens begge typer optimering sigter mod at gøre din side mere synlig og påvirke dine SERP'er, lægger SEO en større vægt på brugeroplevelse, mens edderkop-optimering udelukkende handler om at tiltrække bots.

Søgemaskineoptimering (SEO) er mere fokuseret på optimeringsprocessen til brugerforespørgsler. I stedet fokuserer Googlebot- optimering på, hvordan Google-crawler får adgang til dit websted.

Sådan optimeres gennemsøgningsbudgettet

Der er flere måder at optimere gennemsøgningsbudgetet på ethvert websted, afhængigt af hvert webprojekt, antal sider og andre problemer, her er nogle punkter, du skal overveje:

Sørg for, at dine sider kan spores

Din side kan spores, hvis søgemaskinspiders kan finde og følge links på dit websted, så du bliver nødt til at konfigurere filerne .htaccess og robots.txt, så de ikke blokerer kritiske sider på dit websted. Du ønsker måske også at give tekstversioner af sider, der er meget afhængige af rich media-filer, såsom Flash og Silverlight.

Det modsatte er naturligvis sandt, hvis du vil forhindre, at en side vises i søgeresultaterne. Det er dog ikke nok at indstille robots.txt- filen til “afvise”, hvis du vil forhindre, at en side indekseres. Ifølge Google garanterer "afvis" -reglen ikke, at en side ikke vises i resultaterne.

Hvis eksterne oplysninger (for eksempel indgående links) fortsætter med at føre trafik til den side, du har afvist, kan Google muligvis beslutte, at siden stadig er relevant. I dette tilfælde skal du manuelt blokere indekseringen af siden vha. Noindex- metataggen eller HTTP X-Robots-Tag-overskriften.

- Noindex-metatag: sæt dette metatag i afsnittet på din side for at forhindre, at de fleste webcrawlere indekserer din side:

noindex "/>

- X-Robots-Tag - Placerer følgende i HTTP-header-svaret for at instruere crawlere om ikke at indeksere en side:

X-Robots-Tag: noindex

Bemærk, at hvis du bruger noindex-metatag eller X-Robots-tag, skal du ikke afvise siden i robots.txt. Siden skal gennemgås, før mærket ses og overholdes.

Forsigtig brug af rich media-filer

Der var en tid, hvor Googlebot ikke kunne gennemgå indhold som JavaScript, Flash og HTML. Disse tider er længe gået (selvom Googlebot stadig har problemer med Silverlight og nogle andre filer).

Selv hvis Google kan læse de fleste rige mediefiler, kan andre søgemaskiner imidlertid ikke være i stand til, hvilket betyder, at du skal bruge disse filer med omtanke, og du vil sandsynligvis undgå dem helt på de ønskede sider. stilling.

Undgå omdirigeringstrenge

Hver URL, du omdirigerer, får dig til at spilde lidt af dit crawlbudget. Når dit websted har lange omdirigeringsstrenge, dvs. et stort antal 301 og 302 omdirigeringer i træk, er det muligt for edderkopper som Googlebot at gå ned, før de når destinationssiden, hvilket betyder, at siden ikke indekseres. Den bedste praksis med omdirigeringer er at have så få omdirigeringer som muligt på hjemmesiden og ikke mere end to i træk.

Fix ødelagte links

Da John Mueller blev spurgt om, hvorvidt ødelagte links påvirker positionering eller ej, svarede han, at det er noget mere fokuseret på brugeroplevelsen end til positioneringsformål.

Dette er en af ​​de grundlæggende forskelle mellem optimering af SEO og Googlebot, fordi det ville betyde, at ødelagte links ikke spiller en væsentlig rolle i rankingen, selvom de i høj grad hindrer Googlebots evne til at indeksere og rangere et websted.

Når det er sagt, skal du følge Muellers råd i betragtning af at Googles algoritme er forbedret markant gennem årene, og alt, hvad der påvirker brugeroplevelsen, vil sandsynligvis påvirke SERP'er.

Indstil parametre i dynamiske webadresser

Edderkopper behandler dynamiske webadresser, der fører til den samme side som separate sider, hvilket betyder, at du unødigt spilder dit gennemsøgningsbudget. Du kan administrere URL-parametre ved at åbne Search Console og klikke på Sporing> URL-parametre. Herfra kan du informere Googlebot, hvis dit CMS tilføjer parametre til dine webadresser, der ikke ændrer indholdet på en side.

Rengør sitemap

XML-sitemaps hjælper både besøgende og edderkoprobotter, hvilket gør indholdet bedre organiseret og lettere at finde. Forsøg derfor at holde sitemapet ajour og rense det ud for enhver rod, der kan skade brugen af ​​dit websted, inklusive sider på 400 niveauer, unødvendige omdirigeringer, ikke-kanoniske sider og blokerede sider.

Den nemmeste måde at rense sitemapet er at bruge et værktøj som webstedrevisor. Du kan bruge webstedets revisors XML-sitemap-generator til at oprette et rent sitemap, der ekskluderer alle blokerede sider fra indeksering. Ved at gå til "Site Audit" -muligheden kan du desuden lokalisere og reparere alle 4xx-fejl, 301 og 302 omdirigeringer og ikke-kanoniske sider.

Brug feeds

Begge feeds, RSS, XML og Atom tillader, at indhold leveres til tilhængere, når de ikke gennemser siden. Dette giver brugerne mulighed for at abonnere på deres yndlingswebsteder og modtage regelmæssige opdateringer, hver gang nyt indhold offentliggøres.

Ud over det faktum, at RSS-feeds længe har været en god måde at øge læserskare og engagement på, er de også blandt de mest besøgte sider af Googlebot. Når dit websted modtager en opdatering (for eksempel nye produkter, blogindlæg, sideopdateringer osv.), Skal du sende den til Google Feed Burner for at sikre dig, at den indekseres korrekt.

Opret eksterne links

Linkbygning er stadig et varmt emne, og der er ingen glimt af, at den snart vil forsvinde.

Dyrke relationer online, opdage nye samfund, opbygge mærkeværdi; Disse små vinder skal allerede udskrives i din linkplanlægningsproces. Selvom der er karakteristiske elementer i linkopbygning, der nu er så 1990, vil det menneskelige behov for at forbinde med andre aldrig ændre sig.

I øjeblikket har vi allerede bevis for, at eksterne links er tæt korrelerede med antallet af edderkoppebesøg, som dit websted modtager.

Oprethold integriteten af ​​intern sammenkobling

Selv om oprettelse af interne links ikke spiller nogen væsentlig rolle i gennemsøgningshastigheden, betyder det ikke, at det kan ignoreres fuldstændigt. En godt vedligeholdt stedstruktur gør dit indhold let synligt af søgerobotter uden at spilde dit gennemsøgningsbudget.

En velorganiseret intern linkstruktur kan også forbedre brugeroplevelsen, især hvis brugerne kan nå et hvilket som helst område på dit websted med tre klik. At gøre alt mere generelt tilgængeligt betyder, at besøgende bliver længere, hvilket kan forbedre SERP'er.

Hvilken konklusion drager vi?

For at styrke det, der allerede er nævnt ovenfor, vil dette spørgsmål om crawlbudget igen være vigtigt for store websteder med hundreder og tusinder af websider, ellers er det ikke værd at bekymre sig om, da Google sporer dine websted glat.

Vi må ikke komplicere gennemsøgningen af ​​siderne på vores websted til Google. Der er mange websteder med nok fejl og endda med barrierer oprettet af robots.txt- og sitemap.xml-filerne, der forhindrer Google i at få adgang til indholdet. Hvis vi ønsker at forbedre positioneringen i Google-rangeringen, er vi nødt til at autorisere og forenkle siderne på webstedet, så Google hurtigt kan få adgang til, indeksere og placere. Meget enkel.

I øjeblikket har du sandsynligvis bemærket en tendens i denne artikel: Bedste fremgangsmåder til sporbarhed har også en tendens til at forbedre søgbarheden. Så hvis du undrer dig over, om crawlbudgetoptimering er vigtig for dit websted, er svaret ja.

Kort sagt, hvis du gør det lettere for Google at finde og indeksere dit websted, vil du nyde mere gennemsøgning, hvilket betyder hurtigere opdateringer, når du lægger nyt indhold. Du forbedrer også den samlede brugeroplevelse, forbedrer synligheden og i sidste ende rangeringen af ​​SERP'er.

Dette er blot nogle af punkterne, blandt mange andre, for at forbedre og optimere websides gennemsøgningsbudget.

Vejledninger

Valg af editor

Back to top button