20+ år av SEO: en kort historia av sökmotoroptimering
sökmotoroptimering (SEO) kretsar mycket kring Google idag.
men den praxis som vi nu känner som SEO föregår faktiskt världens mest populära sökmotor som grundades av Larry Page och Sergey Brin.
även om det kan hävdas att SEO och allt sökmotormarknadsföring började med lanseringen av den första webbplatsen som publicerades 1991, eller kanske när den första webbsökmotorn lanserades, börjar historien om SEO ”officiellt” lite senare, runt 1997.
enligt Bob Heyman, författare till Digital Engagement, kan vi tacka ingen annan än chefen för rockbandet Jefferson Starship för att ha hjälpt till att föda ett nytt fält som vi skulle växa till som ”sökmotoroptimering.”
du förstår, han var ganska upprörd över att den officiella Jefferson Starship-webbplatsen rankades på sidan 4 av någon sökmotor vid den tiden, snarare än i Position 1 på sidan 1.
beviljas, vi kanske aldrig vet om denna berättelse är mer revisionistisk historia eller 100% faktum, alla tecken pekar definitivt på termen SEO med ursprung i 1997.
gör lite mer jakt runt och du ser John Audette av Multimedia Marketing Group använde termen så tidigt som Februari 15, 1997.
rankning högt på sökmotorer 1997 var fortfarande ett ganska nytt koncept.
det var också mycket katalogdriven.
innan DMOZ drev den ursprungliga Google-klassificeringen drivs LookSmart av iver, Go.com var sin egen katalog, och Yahoo-katalogen var en viktig aktör i Yahoo Search.
om du inte känner till DMOZ, Mozilla Open Directory-projektet (kom ihåg att Mozilla var ett företag och Moz var ett varumärke långt före SEOMoz), var det i grunden en gul sida för webbplatser.
Detta är vad Yahoo ursprungligen grundades på; möjligheten att hitta de bästa webbplatserna där ute som godkänts av redaktörer.
jag började göra SEO 1998, som ett behov för våra kunder som har byggt coola webbplatser men fick lite trafik.
lite visste jag att det skulle bli en livsstil.
då var World Wide Web fortfarande ett ganska nytt koncept vid den tiden för de flesta.
Idag? Alla vill styra sökmotorns resultatsidor (SERP).
sökmotoroptimering vs. Sökmotormarknadsföring
innan sökmotoroptimering blev det officiella namnet användes också andra termer:
- sökmotorplacering.
- sökmotor positionering.
- sökmotor ranking.
- registrering av sökmotorer.
- sökmotor inlämning.
- webbplats marknadsföring.
men ingen diskussion skulle vara komplett utan att nämna en annan term…
sökmotormarknadsföring.
vid ett tillfälle i 2001 föreslog en framstående branschförfattare sökmotormarknadsföring som en efterträdare till sökmotoroptimering.
självklart hände det inte.
Förbered dig nu; Du kommer att se många falska påståenden (t.ex. ”SEO är död”, ”den nya SEO”) och försök att omprofilera SEO (t. ex. ”sökupplevelse optimering”).
medan SEO som en term inte är perfekt – trots allt optimerar vi inte sökmotorer, vi optimerar vår webbnärvaro-det har varit den föredragna termen för vår bransch i mer än 20 år nu och kommer sannolikt att vara under överskådlig framtid.
när det gäller sökmotormarknadsföring?
det används fortfarande men är nu mer förknippat med betald Sökmarknadsföring och reklam.
de två termerna existerar fredligt idag.
en tidslinje för Sökmotorhistorik
sökmotorer har förändrat hur vi hittar information, bedriver forskning, handlar efter produkter och tjänster, underhåller oss själva och ansluter till andra.
bakom nästan varje online – destination – oavsett om det är en webbplats, blogg, socialt nätverk eller app-är en sökmotor.
sökmotorer har blivit den anslutande kraften och riktningsguiden till vardagen.
men hur började allt detta?
vi har sammanställt en tidslinje med anmärkningsvärda milstolpar från sökmotorernas historia och sökmotoroptimering för att förstå rötterna till denna teknik, som har blivit en så viktig del av vår värld.
Dawn of SEO:’ The Wild West ’ Era
under det senaste decenniet av 1900-talet var sökmotorlandskapet mycket konkurrenskraftigt.
du hade ditt val av sökmotorer – både människodrivna kataloger och sökrobotbaserade listor-inklusive sådana som AltaVista, Ask Jeeves, Excite, Infoseek, Lycos och Yahoo.
i början var det enda sättet att utföra någon form av SEO genom aktiviteter på sidan.
detta inkluderade optimering för faktorer som:
- se till att innehållet var bra och relevant.
- det fanns tillräckligt med text.
- dina HTML-taggar var korrekta.
- du hade Interna Länkar och utgående länkar.
om du ville ranka bra i den här tiden, var tricket ganska mycket bara att upprepa dina nyckelord tillräckligt många gånger på dina webbsidor och metataggar.
vill du överträffa en sida som använder ett nyckelord 100 gånger? Då skulle du använda nyckelordet 200 gånger!
idag kallar vi denna praxis spamming.
här är några höjdpunkter:
1994
Yahoo skapades av Stanford University-studenterna Jerry Wang och David Filo i en campusvagn. Yahoo var ursprungligen en internetbokmärkeslista och katalog över intressanta webbplatser.
Webmasters var tvungna att manuellt skicka in sin sida till Yahoo-katalogen för indexering så att det skulle vara där för Yahoo att hitta när någon utförde en sökning.
AltaVista, Excite och Lycos lanserades också.
1996
Page och Brin, två Stanford University-studenter, byggde och testade Backrub, en ny sökmotor som rankade webbplatser baserat på inkommande länkrelevans och popularitet.
Backrub skulle i slutändan bli Google. HotBot, som drivs av Inktomi, lanserades också.
1997
efter framgången med en Webmaster Guide till sökmotorer, Danny Sullivan lanserade Search Engine Watch, en webbplats för att ge nyheter om sökbranschen, tips om att söka på webben, och information om hur man rangordna webbplatser bättre.
(tio år senare, efter att ha lämnat SEW, grundade Sullivan en annan populär sökpublikation, Search Engine Land, och han arbetar nu på Google.)
Ask Jeeves debuterade också och Google.com registrerades.
1998
Goto.com lanserades med sponsrade länkar och betald sökning. Annonsörer bjuder på Goto.com att rangordna över organiska sökresultat, som drivs av Inktomi. Goto.com slutligen förvärvades av Yahoo.
Dmoz (Open Directory-projektet) blev den mest eftertraktade platsen för SEO-utövare att få sina sidor listade.
MSN gick in i utrymmet med MSN-sökning, som ursprungligen drivs av Inktomi.
1999
den allra första all search marketing conference, Search Engine Strategies (SES), ägde rum. Du kan läsa en retrospektiv på den händelsen av Sullivan här.
(SES-konferensserien fortsatte att köras under olika monikers och moderbolag tills den stängdes 2016.)
Google-revolutionen
år 2000 drog Yahoo det värsta strategiska draget i sökhistoriken och samarbetade med Google och lät Google driva sina organiska resultat istället för Inktomi.
tidigare var Google en lite känd sökmotor. Knappt känt!
slutresultatet: varje Yahoo-sökresultat sa” drivs av Google ” och de slutade introducera sin största konkurrent till världen och Google blev ett känt namn.
fram till denna punkt rankade sökmotorer främst webbplatser baserat på innehållet på sidan, domännamn, förmåga att listas i ovannämnda kataloger och grundläggande webbplatsstruktur (brödsmulning).
men Googles webbsökare och PageRank-algoritm var revolutionerande för informationshämtning.
Google tittade på både On-page och off-page faktorer-kvantiteten och kvaliteten på externa länkar som pekar på en webbplats (liksom ankartexten som används).
om du tänker på det handlade Googles algoritm i huvudsak om ”om folk pratar om dig måste du vara viktig.”
även om länkar bara var en del av Googles övergripande rankningsalgoritm, låste SEO – utövare på länkar som den viktigaste faktorn-och en hel delindustri av länkbyggnad skapades.
under det kommande decenniet blev det ett lopp att förvärva så många länkar som möjligt i hopp om att rankas högre.
länkar blev en kraftigt missbrukad taktik som Google skulle behöva ta itu med under de kommande åren.
det var också år 2000 som Google Toolbar blev tillgängligt på Internet Explorer, så att SEO-utövare kunde se deras PageRank-poäng (ett tal mellan 0-10).
detta inledde en era av oönskad e-post för begäran om länkutbyte.
så med PageRank introducerade Google i huvudsak ett mått på valuta till dess länkning. Ungefär som domänmyndighet missbrukas idag.
Googles organiska resultat fick också något företag i form av AdWords-annonser från och med 2000.
dessa betalda sökannonser började visas ovan, nedan och till höger om Googles naturliga (dvs. obetalda) resultat.
under tiden samlades en grupp webbansvariga informellt på en pub i London för att börja dela information om alla saker SEO 2000.
denna informella samling förvandlades så småningom till Pubcon, en stor sökkonferensserie som fortfarande körs idag.
under de kommande månaderna och åren blev SEO-världen van vid en månatlig Google Dance, eller en tidsperiod under vilken Google uppdaterade sitt index, vilket ibland resulterade i stora rankningsfluktuationer.
även om Googles Brin en gång berömt sa att Google inte trodde på webbspam, hade hans åsikt förmodligen förändrats när 2003 rullade runt.
SEO blev mycket svårare efter uppdateringar som Florida eftersom det blev mycket viktigare än att bara upprepa nyckelord X antal gånger.
Google AdSense: tjäna pengar på fruktansvärt SEO-innehåll
2003, efter förvärv Blogger.com, Google lanserade AdSense, som serverar kontextuellt riktade Google-annonser på utgivarwebbplatser.
blandningen av AdSense och Blogger.com ledde till en ökning av enkel, monetiserad online – publicering-och en bloggrevolution.
medan Google förmodligen inte insåg det vid den tiden skapade de problem som de skulle behöva fixa på vägen.
AdSense gav upphov till skräppost taktik och gjorda för AdSense-webbplatser fyllda med tunt/dåligt/stulet innehåll som fanns enbart för att rangordna bra, få klick och tjäna pengar.
Åh och något annat viktigt hände 2003.
jag grundade webbplatsen du är på, Search Engine Journal!
och jag är otroligt glad att säga att vi fortfarande är här och går starkare än någonsin.
lokal SEO & anpassning
runt 2004 började Google och andra topp sökmotorer förbättra resultaten för frågor som hade en geografisk avsikt (t.ex. en restaurang, rörmokare eller någon annan typ av verksamhet eller tjänsteleverantör i din stad eller stad).
år 2006 rullade Google ut en Maps Plus-låda, som jag var ganska imponerad av vid den tiden.
det var också omkring 2004 som Google och sökmotorer började använda slutanvändardata, såsom sökhistorik och intressen, för att anpassa sökresultaten.
detta innebar att resultaten du såg kunde vara annorlunda än vad någon som satt bredvid dig i en kaffebutik såg när han eller hon sökte efter samma fråga.
även 2005 skapades nofollow-taggar som ett sätt att bekämpa skräppost.
SEO-proffs började använda den här taggen som ett sätt att skulptera PageRank.
Google släppte också ett par anmärkningsvärda uppdateringar:
- Jagger, som bidrog till att minska nivån på oönskade länkutbyten som flög runt, samt att förklara nedgången i vikten av ankartext som en faktor på grund av dess korruptibilitet.
- Big Daddy (myntad av Jeff Manson från RealGeeks), som förbättrade Googles arkitektur för att möjliggöra en förbättrad förståelse för värdet och förhållandet mellan länkar mellan webbplatser.
YouTube, Google Analytics & verktyg för webbansvariga
i oktober 2006 förvärvade Google användargenererat videodelningsnätverk YouTube för $1.65 miljarder, som i slutändan blev den näst mest använda sökfastigheten i världen.
idag har YouTube 2 miljarder användare!
på grund av sin höga popularitet blir video SEO avgörande för varumärken, företag och individer som ville hittas.
Google lanserade också två otroligt viktiga verktyg i 2006:
- Google Analytics. Detta gratis, webbaserade verktyg var så populärt vid lanseringen att webbansvariga upplevde driftstopp och underhållsvarningar.
- Google Verktyg För Webbansvariga. Google Webmaster Tools, som nu kallas Search Console, låter webbansvariga visa genomsökningsfel, se vilka sökningar din webbplats visade upp och begära återintegrering.
även i 2006, XML sitemaps fått universellt stöd från sökmotorerna.
XML sitemaps tillåter webbansvariga att visa för sökmotorerna, varje URL på deras webbplats som är tillgänglig för genomsökning.
en XML-webbplatskarta innehåller inte bara en lista med webbadresser utan en rad ytterligare information, vilket hjälpte sökmotorer att genomsöka mer intelligent.
universell sökning
vi började verkligen se att sökningen började utvecklas på nya och spännande sätt från och med 2007.
alla dessa uppdateringar syftade till att förbättra sökupplevelsen för användare.
Låt oss börja med Googles universella sökning.
fram till denna punkt hade sökresultaten bestått av 10 Blå länkar.
sedan började Google blanda traditionella organiska sökresultat med andra typer av vertikala resultat som nyheter, video och bilder.
detta var lätt den största förändringen i Google-sökning – och SEO-sedan Florida-uppdateringen.
rengöring av cesspoolen
under 2008, då-Googles VD Eric Schmidt sa att Internet blev en cesspool och att varumärken var lösningen. ”Varumärken är hur du sorterar ut cesspoolen,” sa han.
mindre än sex månader efter hans kommentar kom en Google-uppdatering som heter Vince.
stora märken verkade plötsligt ranka mycket bättre i SERP: erna.
men det var inte riktigt avsett att belöna varumärken, enligt Google.
Google ville lägga större vikt på förtroende för algoritmen (och stora varumärken tenderar att ha mer förtroende än mindre och mindre etablerade varumärken).
strax efter den här uppdateringen släppte Google en annan för att förbättra hastigheten på deras indexering, kallad koffein.
som Search Engine Journal rapporterade vid den tiden var koffein ” en nästa generations sökarkitektur för Google som ska vara snabbare och mer exakt, vilket ger bättre, mer relevanta resultat och genomsökning av större delar av webben.”
på tal om hastighet meddelade Google 2010 att webbplatshastighet var en rankningsfaktor.
Bing & Sökalliansen
under 2009 blev Microsoft Live Search Bing.
sedan, i ett försök att utmana Googles nästan 70% grepp om den amerikanska sökmarknaden, Yahoo och Microsoft gick samman för att samarbeta på ett 10-årigt sökavtal (även om det slutade omarbetas fem år senare).
Sökalliansen såg Microsofts Bing power Yahoos organiska och betalda sökresultat.
medan det gjorde Bing till den tydliga nummer 2-sökmotorn, har de i slutändan misslyckats med att bryta Googles massiva grepp om sökning i USA och globalt. I oktober 2020 ommärktes Bing officiellt till Microsoft Bing.
ökningen av sociala medier
ett annat fenomen uppstod sent på 2000-talet: sociala nätverk.
Google gjorde sin stora satsning på YouTube (även om det skulle försöka igen med den nu nedlagda Google+).
men andra nätverk som Facebook, Twitter och LinkedIn framkom alla som stora aktörer (med många fler att komma och gå under de följande åren).
tillsammans med ökningen av sociala medier kom spekulationer om att sociala signaler kan påverka sökrankningar.
ja, sociala medier kan hjälpa SEO, men indirekt-precis som andra former av marknadsföring kan hjälpa till att driva mer trafik till din webbplats och öka varumärkesmedvetenheten och affiniteten (vilket genererar sökbehov).
medan effekterna av sociala aktier (gillar, tweets ,+1, etc.) har nekats gång på gång av Google genom åren som en rankningsfaktor, fortsatte den att listas som en stark korrelation i olika rankningsfaktorstudier.
om du vill läsa mer om detta ämne föreslår jag starkt att du läser hur sociala medier hjälper SEO .
Schema
Schema markup, en form av mikrodata, introducerades 2011 för att hjälpa sökmotorer att tolka sammanhanget för frågan. Du kan visa varje schema markup typ på Schema.org.
Schema är inte en rankningsfaktor. Och det finns få bevis för att det påverkar din sökprestanda.
schemat hjälper dig dock att sticka ut i SERP: erna med rika och utvalda utdrag.
till exempel, i en sökmotor Journal webinar, Milestone delade de såg en 33-66% ökning i Sök visningar för stora snabbmatsrestaurang kedja platser efter schemat utplacerades.
ett annat experiment av InLinks avslöjade att webbplatser med schema fick rankningar när schemat implementerades.
om du är osäker på om du implementerat strukturerad data korrekt testar du den i Googles testverktyg för strukturerad Data.
Google Zoo: Panda & Penguin
två stora algoritmiska uppdateringar – Panda i 2011 och Penguin i 2012 – hade en stor inverkan på SEO som fortfarande känns i dag, som Google återigen försökte städa upp sina sökresultat och belöna högkvalitativa webbplatser.
i 2011 fann Google sina sökresultat inför allvarlig granskning eftersom så kallade ”innehållsgårdar” (webbplatser som producerade höga volymer av innehåll av låg kvalitet) dominerade sökresultaten.
Googles SERP var också röriga med webbplatser med unoriginal och auto-genererat innehåll – och till och med i vissa fall överträffade skrapwebbplatser innehållsskapare.
som ett resultat gjorde dessa webbplatser massor av reklamintäkter (kom ihåg när jag nämnde Googles självgjorda AdSense-problem?).
dessa webbplatser levde och dör också av organisk trafik från Google.
men när Googles Panda-uppdatering rullade ut 2011 såg många webbplatser mycket, om inte alla, av den trafiken försvinner över natten.
Google gav viss insikt om vad som räknas som en högkvalitativ webbplats.
syftet med att eliminera innehåll av låg kvalitet (eller tunt) uppdaterades Panda regelbundet under de kommande åren och blev så småningom integrerad i Googles kärnalgoritm 2016.
med webbplatser som fortfarande återhämtar sig från effekterna av Panda släppte Google en hett förväntad överoptimeringsalgoritm, avsedd att eliminera ”aggressiv skräpposttaktik” från dess resultat.
så småningom dubbade Penguin, denna algoritm riktade länkscheman (webbplatser med ovanliga länkmönster, inklusive en hög mängd exakt matchningsankartext som matchade nyckelord du
ville rangordna för) och sökordsfyllning.
Penguin uppdaterades inte nästan lika ofta som Panda, med mer än ett år mellan vissa uppdateringar. Och precis som Panda blev Penguin en del av Googles realtidsalgoritm 2016.
saker, inte strängar
i maj 2012 presenterade Google Kunskapsgrafen.
detta var ett stort skifte från att tolka sökordssträngar till att förstå semantik och avsikt.
så här beskrev Amit Singhal, Googles tidigare SVP för teknik, det vid lanseringen:
” med Kunskapsgrafen kan du söka efter saker, personer eller platser som Google känner till – landmärken, kändisar, städer, idrottslag, byggnader, geografiska funktioner, filmer, himmelsföremål, konstverk och mer – och omedelbart få information som är relevant för din fråga. Detta är ett kritiskt första steg mot att bygga nästa generations sökning, som utnyttjar den kollektiva intelligensen på webben och förstår världen lite mer som människor gör.”
Google förbättrade sina sökresultat med denna information.
Kunskapspaneler, lådor och karuseller kan visas när människor söker efter en av miljarder enheter och fakta i Kunskapsgrafen.
nästa steg i Googles nästa generations sökning kom i September 2013 i form av Hummingbird, en ny algoritm utformad för att bättre hantera naturliga språkfrågor och konversationssökning.
med ökningen av mobil (och röstsökning) behövde Google helt bygga om hur dess algoritm fungerade för att möta behoven hos moderna sökare.
Hummingbird ansågs vara den största förändringen av Googles kärnalgoritm sedan 2001. Det är uppenbart att Google ville leverera snabbare och mer relevanta resultat, särskilt för mobilanvändare.
Mobile-First
börjar någonstans runt 2005 eller så, en fråga hålls ställs i vår bransch:
är detta ”Mobilåret”?
Tja, det visar sig att det inte var 2005.
eller 2006.
inte heller var 2007.
eller 2008. Eller 2009.
inte ens 2010 – när Google förvandlade sig till ett mobilföretag.
sedan 2011, 2012, 2013 och 2014 kom och gick.
Mobile pratades om och mycket hyped eftersom det växte som galen hela tiden.
när fler användare antog smartphones letade de alltmer efter företag och saker medan de var på resande fot.
slutligen, i 2015, hade vi året för Mobil – den punkt där mobila sökningar passerade desktop search för första gången på Google. Och även om detta är sant när det gäller råa söknummer, är det också sant att sökintentionen är helt annorlunda och omvandlingsfrekvensen förblir mycket lägre på mobila enheter.
detta var också året som comScore rapporterade mobila Internetanvändare överträffade stationära användare.
det var också 2015 som Google lanserade en mycket efterlängtad mobilvänlig algoritmuppdatering, utformad för att ge användarna ”de mest relevanta och aktuella resultaten, oavsett om informationen finns på mobilvänliga webbsidor eller i en mobilapp.”
i ett försök att påskynda sidor introducerade Google också Accelerated Mobile Pages (AMP) 2016.
tanken bakom AMP var att omedelbart ladda innehåll. Många nyhetsmedier och utgivare antog snabbt AMP och fortsätter att använda det idag.
och detta kanske inte överraskar dig, men i januari 2017 meddelade Google att sidhastighet nu kommer att vara en rankningsfaktor för mobilsökningar.
i samma månad uppgav Google att det kommer att börja devalvera sidor med påträngande popup-fönster.
i juli 2019 aktiverades mobile-first indexering för alla nya webbplatser. Och i mars 2021 kommer alla webbplatser att ha bytt till mobile-first-indexering.
maskininlärning & Intelligent sökning
tidigare nämnde jag att Google, som ursprungligen byggdes kring informationssökning, blev ett mobilföretag.
Tja, det förändrades 2017 eftersom Googles VD Sundar Pichai förklarade Google som ett maskininlärningsföretag.
idag är Google search utformad för att informera och hjälpa, snarare än att ge användarna en lista med länkar.
därför har Google byggt maskininlärning i alla sina produkter – inklusive sökning, Gmail, annonser, Google Assistant och mer.
när det gäller sökning har vi redan börjat se effekterna av maskininlärning med Google RankBrain.
tillkännagavs i oktober 2015, RankBrain användes ursprungligen för att försöka tolka de 15% av sökningar som Google aldrig har sett tidigare, baserat på de ord eller fraser som användaren har angett.
sedan dess har Google utökat RankBrain för att köras på varje sökning.
medan RankBrain påverkar rankningen är det inte en rankningsfaktor i traditionell mening, där du blir belönad med bättre ranking för att göra x, y och z.
och det kommer mycket mer snart i världen av intelligent sökning.
- röstsökningar ökar.
- visuell sökning har blivit vansinnigt bra
- användare (och varumärken) antar alltmer chatbots och använder personliga assistenter (t.ex. Apples Siri, Amazons Alexa och Microsofts Cortana).
dessa framsteg inom teknik betyder mer spännande tider för dem som gör SEO.
Googles Kärnuppdateringar
Google gör uppdateringar av sin algoritm varje dag.
men under hela året släpper Google kärnuppdateringar när det ändras till sin algoritm.
det finns också breda kärnalgoritmuppdateringar.
målet med dessa kärnuppdateringar är att skapa en bättre sökupplevelse för användare med mer relevanta och pålitliga sökresultat.
dessa Google core-uppdateringar riktar sig inte till en viss sida eller webbplats utan syftar till att förbättra hur systemet spårar innehåll.
så här beskrev Google dessa kärnuppdateringar:
” ett sätt att tänka på hur en kärnuppdatering fungerar är att föreställa sig att du gjorde en lista över de 100 bästa filmerna 2015. Några år senare i 2019 uppdaterar du listan. Det kommer naturligtvis att förändras. Några nya och underbara filmer som aldrig funnits tidigare kommer nu att vara kandidater för inkludering. Du kan också ompröva några filmer och inse att de förtjänade en högre plats på listan än de hade tidigare.”
i mars 2018 bekräftade Google att en bred kärnalgoritmuppdatering hade rullats ut för att gynna ”underbelönade” sidor.
lite över en månad senare släppte Google en annan bred kärnalgoritmuppdatering riktad mot innehållsrelevans.
sedan rullade en annan bred kärnuppdatering ut i augusti (ibland felaktigt och felaktigt kallad ”Medic”-uppdateringen) inriktning på webbplatser med innehåll av låg kvalitet.
i mars 2019, som en förlängning av kärnuppdateringen i augusti 2018, bekräftade Google att en kärnuppdatering (aka, Florida 2) var här och den skulle vara stor.
men SEO-communityn kände att det var mer av en återgång av tidigare algoritmer.
och en annan bred kärnuppdatering slog i juni 2019 som avslöjade svagheter i E-A-T på webbplatser, med fokus på auktoritet och pålitlighet för inkommande länkar.
då och då kommer Google att släppa en bred kärnuppdatering som påverkar alla sökresultat över hela världen.
det fanns till exempel en bred kärnuppdatering i September 2019 som syftade till att öka webbplatser med övergripande optimal prestanda. Och en annan bred kärnuppdatering i januari 2020 som riktade sig till ymyl (dina pengar, ditt liv) kategorier.
det är den viktigaste skillnaden med breda kärnuppdateringar vs. kärnuppdateringar – du måste analysera din webbplats totalt sett, inte en specifik sida.
senast släppte Google en kärnuppdatering i maj 2020 som riktar sig mot målsidor med tunt innehåll samtidigt som det ger ett boost till lokala sökresultat.
BERT
BERT är den största Google-algoritmuppdateringen sedan RankBrain.
BERT står för Dubbelriktade Kodarrepresentationer från transformatorer som används för naturlig språkbehandling.
i huvudsak hjälper det Google att förstå sammanhanget med sökfrågor bättre.
till exempel kan ordet ”fladdermus” betyda ett nattligt bevingat djur som ofta förknippas med Batman. Eller, det kan användas när en basebollspelare går upp till bat.
med BERT kan Google dissekera sammanhanget för att ge bättre sökresultat.
det som gör BERT ännu bättre är att Google Nu kan använda orden kring dina sökord för att hjälpa spindlarna att smälta ditt innehåll.
till exempel, ” Jag gick till i bat cave.”Eller,” efter min fladdermus gick jag in i dugouten.”Google kan nu skapa en kontextmodell kring andra ord i meningen. Detta är en avgörande faktor för hur naturlig språkbehandling identifierade mänsklig kommunikation.
som Googles Danny Sullivan sa:
”det finns inget att optimera för med BERT, inte heller något för någon att tänka om. Grunden för oss som försöker belöna stort innehåll förblir oförändrade.”
om du fortfarande är intresserad av att lära dig mer om BERT, Dawn Anderson förklarar allt du behöver veta om BERT här.
utvalda Utdrag
du har förmodligen sett utvalda utdrag tidigare, men inte insett vad de var.
utvalda utdrag är kort text, punktpunkter, siffror eller tabeller som visas högst upp i Googles sökning.
målet med ett utvalt utdrag är att svara på sökarens fråga direkt i SERP: erna utan att behöva klicka vidare till webbplatsen.
men, presenterade utdrag kan vara extremt flyktiga så trampa lätt.
utvalda utdrag är inget nytt. De upptäcktes hela vägen tillbaka 2014.
utvalda utdrag har startat lockelsen av den eftertraktade ” position zero.”Det betyder att ditt sökresultat presenteras framför alla andra distraktioner i SERP: erna, plus att du också skulle visas i de organiska resultaten.
i januari 2020 uppdaterade Google den här funktionen för att duplicera sökresultat för utvalda utdrag så att du antingen skulle inkluderas i det presenterade utdraget eller det organiska resultatet, inte båda.
och i juni 2020 släppte Google ytterligare en uppdatering om att utvalda utdrag nu tar användare direkt till texten som är relevant för deras sökfråga.
användare ser nu texten markerad i gult.
eftersom röstsökning fortsätter att förfina sig, kommer innehåll med utdrag att ge en stor möjlighet att öka organisk synlighet.
slutsats
sökmotorer och SEO har kommit långt sedan 1990-talet.
vi har bara berört några av dessa sätt i det här inlägget.
historien om SEO har fyllts med spännande svängar-födelsen av nya sökmotorer, död gamla sökmotorer, nya SERP funktioner, nya algoritmer, och ständiga tester och uppdateringar – plus framväxten av stora SEO publikationer, konferenser, verktyg och experter.
medan sökmotorer och SEO har utvecklats kraftigt under åren är en sak fortfarande sant: så länge det finns sökmotorer kommer SEO att förbli avgörande.
och vi har bara börjat!
Dagens Bild Kredit: Paulo Bobita