Crawl Errors: The Next Generation
mandag 12.Mars 2012
Crawl errors er en Av De mest populære funksjonene I Webmaster Tools, og i dag ruller vi ut noen svært betydelige forbedringer som vil gjøre Det enda mer nyttig.
vi oppdager og rapporterer nå mange nye typer feil. For å gi mening om de nye dataene, har vi delt feilene i to deler: nettstedfeil og URL-feil.
Områdefeil
områdefeil er feil som ikke er spesifikke for en BESTEMT URL—ADRESSE-de påvirker hele området. Disse inkluderer DNS-oppløsningsfeil, tilkoblingsproblemer med webserveren din og problemer med å hente robotene dine.txt-fil. Vi pleide å rapportere disse feilene VIA URL, men det ga ikke mye mening fordi de ikke er spesifikke for individuelle Nettadresser—faktisk forhindrer De Googlebot i å be om EN NETTADRESSE! I stedet holder vi nå oversikt over feilratene for hver type feil på hele nettstedet. Vi vil også prøve å sende deg varsler når disse feilene blir hyppige nok til at de garanterer oppmerksomhet.
videre, Hvis du ikke har (og ikke nylig har hatt) noen problemer på disse områdene, som det er tilfelle for mange nettsteder, vil vi ikke plage deg med denne delen. I stedet vil vi bare vise deg noen vennlige merker for å fortelle deg at alt er hunky-dory.
URL-feil
URL-feil er feil som er spesifikke for en bestemt side. Dette betyr at Når Googlebot prøvde å gjennomsøke NETTADRESSEN, var DET i stand til å løse DNS, koble til serveren din, hente og lese robotene dine.txt-fil, og deretter be om DENNE NETTADRESSEN, men noe gikk galt etter det. VI bryter URL-feilene ned i ulike kategorier basert på hva som forårsaket feilen. Hvis nettstedet ditt viser Google Nyheter eller MOBILDATA (CHTML/XHTML), viser vi separate kategorier for disse feilene.
Mindre er mer
vi pleide å vise deg maksimalt 100 000 feil av hver type. Å prøve å konsumere all denne informasjonen var som å drikke fra en brannslange, og du hadde ingen måte å vite hvilke av disse feilene som var viktige (hjemmesiden din er nede) eller mindre viktig (noens personlige nettsted gjorde en skrivefeil i en lenke til nettstedet ditt). Det var ingen realistisk måte å vise alle 100 000 feil-ingen måte å sortere, søke eller merke fremgangen din. I den nye versjonen av denne funksjonen har vi fokusert på å prøve å gi deg bare de viktigste feilene foran. For hver kategori gir vi deg det vi tror er de 1000 viktigste og handlingsfeilene. Du kan sortere og filtrere disse topp 1000 feilene, gi oss beskjed når du tror du har løst dem, og se detaljer om dem.
Noen nettsteder har mer enn 1000 feil av en gitt type, så du vil fortsatt kunne se totalt antall feil du har av hver type, samt en graf som viser historiske data som går tilbake 90 dager. For de som bekymrer seg for at 1000 feildetaljer pluss en total samlet telling ikke vil være nok, vurderer vi å legge til programmatisk tilgang (EN API) for å tillate deg å laste ned hver siste feil du har, så vennligst gi oss tilbakemelding hvis du trenger mer.
vi har også fjernet listen over sider blokkert av roboter.txt, fordi mens disse noen ganger kan være nyttige for å diagnostisere et problem med robotene dine.txt-fil, de er ofte sider du med vilje blokkert. Vi ønsket virkelig å fokusere på feil, så se etter informasjon om roboterte Nettadresser for å dukke opp snart i «Crawler access» – funksjonen under»Site configuration».
Dykk inn i detaljene
Ved Å Klikke på en individuell FEILADRESSE fra hovedlisten får du opp en detaljrute med tilleggsinformasjon, inkludert når vi sist prøvde å gjennomsøke NETTADRESSEN, da vi først la merke til et problem, og en kort forklaring på feilen.
fra detaljruten kan du klikke på linken FOR NETTADRESSEN som forårsaket feilen for å se selv hva som skjer når du prøver å besøke den. Du kan også merke feilen som «fast» (mer om det senere!), se hjelpeinnhold for feiltypen, liste Områdekart som inneholder URL, se andre sider som lenker til DENNE URL, Og Selv Har Googlebot hente URL akkurat nå, enten for mer informasjon eller for å dobbeltsjekke at fix fungerte.
Gjør noe!
en ting vi er veldig begeistret for i denne nye versjonen av Crawl errors-funksjonen, er at du virkelig kan fokusere på å fikse det som er viktigst først. Vi har rangert feilene slik at de øverst på prioritetslisten vil være de der det er noe du kan gjøre, enten det er å fikse ødelagte koblinger på ditt eget nettsted, fikse feil i serverprogramvaren din, oppdatere nettstedskartene dine for å beskjære døde Nettadresser, eller legge til en 301-omdirigering for å få brukere til den «virkelige» siden. Vi bestemmer dette basert på en rekke faktorer, inkludert om DU inkluderte NETTADRESSEN i Et Områdekart, hvor mange steder den er koblet fra (og om noen av dem også er på nettstedet ditt), og om NETTADRESSEN nylig har fått trafikk fra søk.
Når du tror du har løst problemet (du kan teste løsningen ved å hente NETTADRESSEN som Googlebot), kan du gi oss beskjed ved å merke feilen som «fast» hvis du er en bruker med full tilgangstillatelser. Dette vil fjerne feilen fra listen din. I fremtiden vil feilene du har merket som faste, ikke bli inkludert i listen over toppfeil, med mindre vi har oppdaget den samme feilen når vi prøver å gjennomgå EN URL på NYTT.
Vi har lagt mye arbeid i Den nye Crawl errors-funksjonen, så vi håper at det vil være veldig nyttig for deg. Gi oss beskjed om hva du synes, og hvis du har noen forslag, vennligst besøk vårt forum!
Skrevet Av Kurt Dresner, Verktøy for Nettredaktører