20 + lat SEO: Krótka historia Search Engine Optimization
Search engine optimization (SEO) bardzo dużo obraca się wokół Google dzisiaj.
jednak praktyka, którą znamy obecnie jako SEO, wyprzedza najpopularniejszą na świecie wyszukiwarkę współtworzoną przez Larry 'ego Page’ a i Sergeya Brina.
chociaż można argumentować, że SEO i wszystkie rzeczy marketing w wyszukiwarkach rozpoczęły się wraz z uruchomieniem pierwszej strony internetowej opublikowanej w 1991 roku, a może po uruchomieniu pierwszej wyszukiwarki internetowej, historia SEO „oficjalnie” zaczyna się nieco później, około 1997 roku.
według Boba Heymana, autora digital Engagement, możemy podziękować nikomu innemu niż menedżerowi rockowego zespołu Jefferson Starship za pomoc w zrodzeniu nowej dziedziny, którą poznalibyśmy jako ” search engine optimization.”
widzisz, był bardzo zdenerwowany, że oficjalna strona Jefferson Starship była w rankingu na stronie 4 jakiejś wyszukiwarki w tym czasie, a nie na pozycji 1 na stronie 1.
przyznaję, nigdy nie możemy się dowiedzieć, czy ta opowieść jest bardziej rewizjonistyczną historią, czy 100% faktem, wszystkie znaki zdecydowanie wskazują na termin SEO pochodzący z około 1997 roku.
zrób trochę więcej polowań, a zobaczysz, że John Audette z Multimedia Marketing Group używał tego terminu już 15 lutego 1997 roku.
pozycja wysoko w wyszukiwarkach w 1997 roku była wciąż całkiem nową koncepcją.
było też bardzo
zanim DMOZ zasilił oryginalną klasyfikację Google, LookSmart był zasilany gorliwością, Go.com był własnym katalogiem, a Katalog Yahoo był głównym graczem w wyszukiwarce Yahoo.
jeśli nie jesteś zaznajomiony z Dmoz, Mozilla Open Directory Project (pamiętaj, Mozilla była firmą, a Moz był marką na długo przed SEOMoz), był to w zasadzie Yellow Pages dla stron internetowych.
na tym powstała Yahoo; możliwość znalezienia najlepszych stron internetowych, zatwierdzonych przez redaktorów.
zacząłem robić SEO w 1998, jako potrzeba dla naszych klientów, którzy zbudowali fajne strony, ale mieli mały ruch.
z drugiej strony, World Wide Web był jeszcze całkiem nowym pomysłem dla większości ludzi.
Dzisiaj? Każdy chce rządzić stronami wyników wyszukiwania (SERP).
Search Engine Optimization vs. Marketing w wyszukiwarkach
zanim Search Engine Optimization stał się oficjalną nazwą, używano również innych terminów:
- pozycjonowanie w wyszukiwarkach.
- pozycjonowanie w wyszukiwarkach.
- ranking wyszukiwarek.
- rejestracja w wyszukiwarkach.
- zgłoszenie w wyszukiwarce.
- promocja stron internetowych.
ale żadna dyskusja nie byłaby kompletna bez wymienienia innego terminu …
Marketing w wyszukiwarkach.
w pewnym momencie w 2001 roku jeden z wybitnych pisarzy branżowych zasugerował marketing w wyszukiwarkach jako następcę search engine optimization.
oczywiście się nie stało.
przygotuj się teraz; będziesz widzieć wiele fałszywych roszczeń (np. „SEO is dead”, „The new SEO”) i prób rebrandingu SEO (np. „Optymalizacja wyszukiwania”).
chociaż SEO jako termin nie jest idealny-w końcu nie optymalizujemy wyszukiwarek, optymalizujemy naszą obecność w Internecie-pozostaje to preferowany termin w naszej branży od ponad 20 lat i prawdopodobnie będzie w najbliższej przyszłości.
co do marketingu w wyszukiwarkach?
jest nadal używany, ale jest teraz bardziej związany z płatnym marketingiem w wyszukiwarkach i reklamą.
oba terminy współistnieją dziś pokojowo.
oś czasu historii wyszukiwarek
Wyszukiwarki zmieniły sposób, w jaki znajdujemy informacje, prowadzimy badania, kupujemy produkty i usługi, bawimy się i łączymy się z innymi.
za prawie każdym miejscem docelowym online – czy jest to strona internetowa, blog, sieć społecznościowa lub aplikacja – znajduje się wyszukiwarka.
Wyszukiwarki stały się łącznikiem siły i kierunkowym przewodnikiem codziennego życia.
ale jak to wszystko się zaczęło?
zebraliśmy harmonogram znaczących kamieni milowych z historii wyszukiwarek i optymalizacji pod kątem wyszukiwarek, aby zrozumieć korzenie tej technologii, która stała się tak ważną częścią naszego świata.
Świt SEO: Era Dzikiego Zachodu
w ostatniej dekadzie XX wieku krajobraz Wyszukiwarki był bardzo konkurencyjny.
miałeś wybór wyszukiwarek – zarówno katalogów zasilanych przez człowieka, jak i ofert opartych na gąsienicach-w tym takich jak AltaVista, Ask Jeeves, Excite, Infoseek, Lycos i Yahoo.
na początku jedynym sposobem na wykonanie wszelkiego rodzaju SEO było działanie na stronie.
obejmowało to optymalizację pod kątem takich czynników jak:
- upewnienie się, że treść jest dobra i trafna.
- wystarczył tekst.
- Twoje znaczniki HTML były dokładne.
- miałeś linki wewnętrzne i wychodzące.
jeśli chciałeś dobrze pozycjonować w tej erze, sztuczka polegała na powtarzaniu słów kluczowych wystarczająco dużo razy na stronach internetowych i meta tagach.
chcesz prześcignąć stronę, która używa słowa kluczowego 100 razy? Wtedy użyłbyś słowa kluczowego 200 razy!
dzisiaj nazywamy to spamowaniem.
oto kilka najważniejszych:
1994
Yahoo zostało stworzone przez studentów Uniwersytetu Stanforda Jerry ’ ego Wanga i Davida Filo w przyczepie kampusowej. Yahoo było pierwotnie internetowym spisem zakładek i katalogiem ciekawych stron.
webmasterzy musieli ręcznie przesłać swoją stronę do katalogu Yahoo w celu indeksowania, aby Yahoo mogło ją znaleźć, gdy ktoś przeprowadził wyszukiwanie.
uruchomione zostały również AltaVista, Excite i Lycos.
1996
Page i Brin, dwaj studenci Uniwersytetu Stanforda, zbudowali i przetestowali Backrub, nową wyszukiwarkę, która klasyfikuje witryny na podstawie trafności i popularności linków przychodzących.
Backrub ostatecznie stałby się Google. Wystartował również HotBot, zasilany przez Inktomi.
1997
po sukcesie przewodnika webmastera po wyszukiwarkach, Danny Sullivan uruchomił Search Engine Watch, stronę internetową poświęconą dostarczaniu wiadomości o branży wyszukiwania, wskazówek dotyczących wyszukiwania w Internecie i informacji o tym, jak lepiej oceniać strony internetowe.
(dziesięć lat później, po odejściu z SEW, Sullivan założył kolejną popularną publikację wyszukiwania, Search Engine Land, a teraz pracuje w Google.)
zapytaj Jeeves również zadebiutował i Google.com był zarejestrowany.
1998
Goto.com uruchomiony z linkami sponsorowanymi i płatnym wyszukiwaniem. Reklamodawcy licytują na Goto.com do rankingu powyżej organicznych wyników wyszukiwania, które były zasilane przez Inktomi. Goto.com został ostatecznie przejęty przez Yahoo.
Dmoz (projekt Open Directory) stał się najbardziej poszukiwanym miejscem dla praktyków SEO, aby uzyskać listę swoich stron.
MSN wszedł w Przestrzeń za pomocą MSN Search, początkowo zasilanego przez Inktomi.
1999
odbyła się pierwsza w historii konferencja all search marketing, Search Engine Strategies (ses). Retrospektywę tego wydarzenia można przeczytać tutaj.
(seria konferencji SES nadal działała pod różnymi monikerami i firmami dominującymi, aż do zamknięcia w 2016 roku.)
rewolucja Google
w 2000 roku Yahoo wykonało najgorszy strategiczny ruch w historii wyszukiwania i nawiązało współpracę z Google i pozwoliło Google zasilić swoje organiczne wyniki zamiast Inktomi.
wcześniej Google było mało znaną wyszukiwarką. Mało znane!
efekt końcowy: każdy wynik wyszukiwania Yahoo powiedział „Powered by Google” i skończyło się na przedstawieniu ich największego konkurenta na świecie, a Google stał się marką domową.
do tej pory Wyszukiwarki oceniały głównie witryny w oparciu o zawartość strony, nazwy domen, możliwość uzyskania listy w wyżej wymienionych katalogach i podstawową strukturę witryny (breadcrumbing).
ale algorytm Google Web crawler i PageRank były rewolucyjne dla wyszukiwania informacji.
Google przyjrzało się czynnikom zarówno na stronie, jak i poza nią-ilości i jakości linków zewnętrznych wskazujących na stronę (a także zastosowanego tekstu kotwicy).
jeśli o tym myślisz, algorytm Google był zasadniczo o „Jeśli ludzie mówią o tobie, musisz być ważny.”
chociaż linki były tylko jednym z elementów ogólnego algorytmu rankingu Google, praktycy SEO przywiązali się do linków jako najważniejszego czynnika – i powstała cała pod-branża budowania linków.
w ciągu następnej dekady stało się to wyścigiem o zdobycie jak największej liczby linków w nadziei na wyższą pozycję w rankingu.
linki stały się mocno nadużywaną taktyką, którą Google musiałby zająć w najbliższych latach.
również w 2000 roku pasek narzędzi Google stał się dostępny w przeglądarce Internet Explorer, pozwalając praktykom SEO zobaczyć swój wynik PageRank (liczba między 0-10).
to zapoczątkowało erę niechcianych e-maili z prośbą o wymianę linków.
więc z PageRank, Google zasadniczo wprowadził środek waluty do swojego linkowania. Podobnie jak autorytet domeny jest dziś nadużywany.
organiczne wyniki Google ’ a również zyskały pewną firmę w postaci reklam AdWords począwszy od 2000 roku.
te płatne reklamy w wyszukiwarce zaczęły pojawiać się powyżej, poniżej i na prawo od naturalnych (tj. nieopłaconych) wyników Google.
tymczasem Grupa webmasterów nieformalnie zebrała się w pubie w Londynie, aby zacząć dzielić się informacjami na temat wszystkich rzeczy SEO w 2000 roku.
to nieformalne spotkanie ostatecznie przekształciło się w Pubcon, dużą serię konferencji wyszukiwania, która działa do dziś.
w ciągu najbliższych miesięcy i lat świat SEO przyzwyczaił się do comiesięcznego Google Dance, czyli okresu, w którym Google aktualizował swój indeks, co czasami powodowało duże wahania w rankingu.
chociaż Brin Google kiedyś powiedział, że Google nie wierzy w spam internetowy, jego opinia prawdopodobnie zmieniła się do czasu 2003.
SEO stało się o wiele trudniejsze po aktualizacjach, takich jak Floryda, ponieważ stało się o wiele ważniejsze niż powtarzanie słów kluczowych x ilość razy.
Google AdSense: zarabianie na treściach SEO
w 2003 roku, po uzyskaniu Blogger.com, Google uruchomił AdSense, który obsługuje kontekstowo ukierunkowane reklamy Google w witrynach wydawców.
mieszanka AdSense i Blogger.com doprowadziło to do gwałtownego wzrostu prostego, zmonetyzowanego publikowania w Internecie – i rewolucji blogowej.
chociaż Google prawdopodobnie nie zdawało sobie z tego sprawy w tym czasie, tworzyli problemy, które musieliby naprawić.
AdSense dał początek taktykom spamerskim i stworzył witryny AdSense wypełnione cienkimi/biednymi/skradzionymi treściami, które istniały wyłącznie po to, aby dobrze pozycjonować, uzyskiwać kliknięcia i zarabiać pieniądze.
och i jeszcze coś ważnego wydarzyło się w 2003 roku.
założyłem stronę, na której jesteś, Dziennik Wyszukiwarki!
i jestem niesamowicie szczęśliwy mogąc powiedzieć, że wciąż tu jesteśmy, coraz silniejsi niż kiedykolwiek.
lokalne SEO & Personalizacja
około 2004 roku Google i inne najlepsze wyszukiwarki zaczęły poprawiać wyniki zapytań, które miały geograficzne intencje (np. restauracja, hydraulik lub inny rodzaj firmy lub dostawcy usług w Twoim mieście).
w 2006 roku Google wprowadziło pudełko Maps Plus, które wtedy byłem pod wrażeniem.
około 2004 roku Google i wyszukiwarki zaczęły w większym stopniu wykorzystywać dane użytkowników końcowych, takie jak historia wyszukiwania i zainteresowania, do personalizacji wyników wyszukiwania.
oznacza to, że wyniki, które widziałeś, mogą być inne niż to, co widział ktoś siedzący obok ciebie w kawiarni, gdy szukał tego samego zapytania.
również w 2005 roku znaczniki nofollow zostały stworzone jako środek do walki ze spamem.
profesjonaliści SEO zaczęli używać tego tagu jako sposobu na rzeźbienie PageRank.
Google udostępniło również kilka godnych uwagi aktualizacji:
- Big Daddy (ukuty przez Jeffa Mansona z RealGeeks), który ulepszył architekturę Google, aby umożliwić lepsze zrozumienie wartości i relacji linków między stronami.
YouTube, Google Analytics & narzędzia dla webmasterów
w październiku 2006 r.Google nabyło sieć udostępniania wideo generowaną przez użytkowników YouTube za 1 USD.65 miliardów, co ostatecznie stało się drugą najczęściej używaną własnością wyszukiwania na świecie.
dziś YouTube ma 2 miliardy użytkowników!
ze względu na rosnącą popularność wideo SEO staje się kluczowe dla marek, firm i osób, które chciały zostać znalezione.
Google uruchomiło również dwa niezwykle ważne narzędzia w 2006:
- Google Analytics. To bezpłatne narzędzie internetowe było tak popularne podczas uruchamiania, że webmasterzy doświadczyli przestojów i ostrzeżeń dotyczących konserwacji.
- Narzędzia Dla Webmasterów Google. Teraz znane jako Search Console, narzędzia dla webmasterów Google pozwalają webmasterom przeglądać błędy indeksowania, sprawdzać, czego szuka Twoja witryna i żądać ponownego włączenia.
również w 2006 roku XML sitemaps zyskał uniwersalne wsparcie wyszukiwarek.
mapy witryn XML umożliwiają webmasterom wyświetlanie w wyszukiwarkach każdego adresu URL na swojej stronie internetowej, który jest dostępny do indeksowania.
Mapa strony XML zawiera nie tylko listę adresów URL, ale także szereg dalszych informacji, które pomogły wyszukiwarkom w bardziej inteligentnym indeksowaniu.
uniwersalne wyszukiwanie
od 2007 roku zaczęliśmy obserwować, jak poszukiwania zaczynają ewoluować na nowe i ekscytujące sposoby.
wszystkie te aktualizacje miały na celu poprawę komfortu wyszukiwania dla użytkowników.
zacznijmy od uniwersalnego wyszukiwania Google.
do tego momentu wyniki wyszukiwania składały się z 10 niebieskich linków.
następnie Google zaczęło mieszać tradycyjne organiczne wyniki wyszukiwania z innymi typami pionowych wyników, takich jak wiadomości, wideo i obrazy.
to była z łatwością największa zmiana w wyszukiwarce Google – i SEO – od czasu aktualizacji na Florydzie.
sprzątanie szamba
w 2008 roku ówczesny dyrektor generalny Google Eric Schmidt powiedział, że Internet staje się szambo i że marki są rozwiązaniem. „Marki to sposób na uporządkowanie szamba”
mniej niż sześć miesięcy po jego komentarzu pojawiła się aktualizacja Google o nazwie Vince.
wielkie marki nagle wydawały się być o wiele lepsze w SERPach.
ale tak naprawdę nie miało to na celu nagradzania marek, według Google.
Google chciał położyć większy nacisk na zaufanie do algorytmu (a duże marki mają zwykle większe zaufanie niż mniejsze i mniej znane marki).
krótko po tej aktualizacji Google wydało kolejną, aby poprawić szybkość ich indeksowania, o nazwie Caffeine.
jak donosił wówczas Search Engine Journal, Caffeine była ” architekturą wyszukiwania nowej generacji dla Google, która miała być szybsza i dokładniejsza, zapewniając lepsze, trafniejsze wyniki i indeksując większe części sieci.”
mówiąc o szybkości, w 2010 roku Google ogłosiło, że szybkość witryny jest czynnikiem rankingowym.
Bing& Search Alliance
w 2009 roku Microsoft Live Search stał się Bing.
następnie, próbując zakwestionować Google prawie 70% przyczepność amerykańskiego rynku wyszukiwania, Yahoo i Microsoft połączyły siły, aby współpracować w 10-letniej umowie wyszukiwania (choć skończyło się na przeróbce pięć lat później).
The Search Alliance widział Microsoft Bing power Yahoo organicznych i płatnych wyników wyszukiwania.
chociaż Bing stał się wyraźną wyszukiwarką numer 2, ostatecznie nie udało im się przełamać ogromnej kontroli Google nad wyszukiwaniem w USA i na całym świecie. W październiku 2020 roku Bing oficjalnie zmienił nazwę na Microsoft Bing.
wzrost mediów społecznościowych
pod koniec XX wieku pojawiło się kolejne zjawisko: sieci społecznościowe.
Google postawił duży zakład na YouTube (chociaż spróbowałby ponownie z nieistniejącym już Google+).
ale inne sieci, takie jak Facebook, Twitter i LinkedIn, wszystkie pojawiły się jako główni gracze (z wieloma kolejnymi w kolejnych latach).
wraz z rozwojem mediów społecznościowych pojawiły się spekulacje, że sygnały społecznościowe mogą wpływać na rankingi wyszukiwania.
tak, media społecznościowe mogą pomóc w SEO, ale pośrednio-podobnie jak inne formy marketingu mogą pomóc zwiększyć ruch na twojej stronie i zwiększyć świadomość marki i powinowactwo (co generuje popyt na wyszukiwanie).
podczas gdy wpływ akcji społecznych (Polubienia, tweety, + 1 itp.) został odrzucony raz po raz przez Google przez lata jako czynnik rankingowy, nadal był wymieniany jako mający silną korelację w różnych badaniach czynników rankingowych.
jeśli chcesz przeczytać więcej na ten temat, gorąco sugeruję przeczytanie, jak media społecznościowe pomagają SEO .
schemat
znaczniki schematu, forma mikrodanych, została wprowadzona w 2011 roku, aby pomóc wyszukiwarkom interpretować kontekst zapytania. Możesz przeglądać każdy typ znaczników schematu na Schema.org.
schemat nie jest czynnikiem rankingowym. Istnieje niewiele dowodów na poparcie tego, że ma to wpływ na wydajność wyszukiwania.
jednak schemat pomaga wyróżnić się w SERPach z bogatymi i polecanymi fragmentami.
na przykład w webinarium czasopisma dla wyszukiwarek firma Milestone udostępniła, że po wdrożeniu schematu liczba wyświetleń w wyszukiwarkach dużych sieci restauracji typu fast-food wzrosła o 33-66%.
kolejny eksperyment inlinks ujawnił, że witryny ze schematem zyskały rankingi po wdrożeniu schematu.
jeśli nie masz pewności, czy poprawnie zaimplementowałeś dane strukturyzowane, przetestuj je w narzędziu do testowania danych strukturyzowanych Google.
Google Zoo: Panda& Penguin
dwie główne aktualizacje algorytmiczne-Panda w 2011 i Penguin w 2012 – miały duży wpływ na SEO, które jest nadal odczuwalne do dziś, ponieważ Google po raz kolejny próbował oczyścić wyniki wyszukiwania i nagradzać wysokiej jakości witryny.
w 2011 roku Google uznał wyniki wyszukiwania za poddane surowej kontroli, ponieważ w wynikach wyszukiwania dominowały tzw. „content farms” (strony internetowe, które wytwarzały duże ilości treści niskiej jakości).
SERP Google były również zaśmiecone witrynami z nieoryginalnymi i automatycznie generowanymi treściami-a nawet, w niektórych przypadkach, witryny zgarniające przewyższały twórców treści.
w rezultacie witryny te generowały mnóstwo przychodów z reklam (pamiętasz, kiedy wspomniałem o samodzielnym problemie Google AdSense?).
te strony również żyły i umierały przez ruch organiczny z Google.
ale gdy aktualizacja Google Panda pojawiła się w 2011 roku, wiele stron internetowych zobaczyło wiele, jeśli nie wszystkie, tego ruchu znikają z dnia na dzień.
Google przedstawił pewne informacje na temat tego, co liczy się jako witryna wysokiej jakości.
w celu wyeliminowania niskiej jakości (lub cienkiej) treści, Panda była okresowo aktualizowana w nadchodzących latach, ostatecznie stając się zintegrowanym z głównym algorytmem Google w 2016 roku.
gdy strony internetowe wciąż odzyskują siły po efektach Pandy, Google wypuściło gorąco oczekiwany algorytm nadmiernej optymalizacji, mający na celu wyeliminowanie „agresywnej taktyki spamu” z jej wyników.
ostatecznie nazwany Pingwin, ten algorytm ukierunkowany Schematy linków (strony internetowe z nietypowymi wzorami linków, w tym dużą ilością tekstu zakotwiczenia dokładnego dopasowania, który pasował do słów kluczowych, dla których
chciałeś zaszeregować) i farsz słów kluczowych.
Penguin nie był aktualizowany prawie tak często jak Panda, z ponad rokiem między niektórymi aktualizacjami. Podobnie jak Panda, Penguin stał się częścią algorytmu czasu rzeczywistego Google w 2016 roku.
rzeczy, nie ciągi
w maju 2012 roku Google zaprezentowało Knowledge Graph.
to była poważna zmiana od interpretacji ciągów słów kluczowych do zrozumienia semantyki i intencji.
Oto jak Amit Singhal, były wiceprezes Google ds. inżynierii, opisał to podczas premiery:
„Wykres wiedzy umożliwia wyszukiwanie rzeczy, osób lub miejsc, o których Google wie – zabytków, gwiazd, miast, drużyn sportowych, budynków, obiektów geograficznych, filmów, obiektów niebieskich, dzieł sztuki i innych – i natychmiastowe uzyskiwanie informacji istotnych dla zapytania. Jest to krytyczny pierwszy krok w kierunku budowy nowej generacji wyszukiwania, która wykorzystuje zbiorową inteligencję sieci i rozumie świat nieco bardziej jak ludzie.”
Google wzbogacił swoje wyniki wyszukiwania o te informacje.
panele wiedzy, pudełka i KARUZELE mogą pojawić się za każdym razem, gdy ludzie szukają jednego z miliardów Bytów i faktów na wykresie wiedzy.
kolejny krok w nowej generacji wyszukiwania Google przyszedł we wrześniu 2013 roku w postaci Koliber, nowego algorytmu zaprojektowanego w celu lepszego rozwiązywania zapytań w języku naturalnym i wyszukiwania konwersacyjnego.
wraz z rozwojem wyszukiwania mobilnego (i głosowego), Google musiało całkowicie przebudować sposób działania algorytmu, aby zaspokoić potrzeby nowoczesnych wyszukiwarek.
Hummingbird był uważany za największą zmianę w głównym algorytmie Google od 2001 roku. Najwyraźniej Google chciał dostarczać szybsze i bardziej trafne wyniki, zwłaszcza użytkownikom mobilnym.
Mobile-pierwszy
zaczynając od około 2005 roku, w naszej branży wciąż zadawane jest jedno pytanie:
czy to „Rok Mobile”?
cóż, okazuje się, że nie było tego w 2005 roku.
lub 2006.
lub 2008. Lub 2009.
nawet 2010 – kiedy Google przekształciło się w firmę mobilną.
potem przyszły i poszły lata 2011, 2012, 2013 i 2014.
o telefonie komórkowym mówiono i było dużo szumu, bo przez cały ten czas rosło jak szalone.
ponieważ coraz więcej użytkowników przyjęło smartfony, coraz częściej szukali firm i rzeczy w ruchu.
wreszcie, w 2015 roku mieliśmy Rok Mobile-punkt, w którym wyszukiwania mobilne wyprzedziły wyszukiwanie pulpitu po raz pierwszy w Google. I chociaż jest to prawdą pod względem surowych liczb wyszukiwania, prawdą jest również, że intencja wyszukiwania jest zupełnie inna, a współczynniki konwersji pozostają znacznie niższe na urządzeniach mobilnych.
to był również rok, w którym comScore poinformował, że użytkownicy internetu mobilnego wyprzedzili użytkowników tylko komputerów stacjonarnych.
to również w 2015 roku Google uruchomiło długo oczekiwaną aktualizację algorytmu przyjaznego dla urządzeń mobilnych, mającą na celu zapewnienie użytkownikom „najbardziej odpowiednich i aktualnych wyników, niezależnie od tego, czy informacje znajdują się na stronach internetowych przyjaznych dla urządzeń mobilnych, czy w aplikacji mobilnej.”
aby przyspieszyć tworzenie stron, Google wprowadziło również Accelerated Mobile Pages (AMP) w 2016 roku.
ideą AMP było natychmiastowe ładowanie treści. Wiele mediów i wydawców szybko przyjęło AMP i nadal z niego korzysta.
i może to cię nie zaskoczy, ale w styczniu 2017 r. Google ogłosiło, że szybkość strony będzie teraz czynnikiem rankingowym dla wyszukiwań mobilnych.
w tym samym miesiącu Google stwierdził, że zacznie dewaluować strony za pomocą natrętnych wyskakujących okienek.
w lipcu 2019 r.indeksowanie na urządzeniach mobilnych zostało włączone dla wszystkich nowych stron internetowych. A do marca 2021 r. wszystkie strony internetowe przejdą na indeksowanie mobilne.
Uczenie maszynowe & Inteligentne wyszukiwanie
wcześniej wspomniałem, że Google, pierwotnie zbudowany wokół wyszukiwania informacji, stał się firmą mobilną.
cóż, zmieniło się to w 2017 roku, ponieważ dyrektor generalny Google Sundar Pichai ogłosił Google pierwszą firmą zajmującą się uczeniem maszynowym.
dzisiaj wyszukiwarka Google ma za zadanie informować i pomagać, a nie podawać użytkownikom listę linków.
dlatego Google wbudowało uczenie maszynowe we wszystkie swoje produkty – w tym Wyszukiwanie, Gmail, reklamy, Asystent Google i inne.
jeśli chodzi o Wyszukiwanie, zaczęliśmy już dostrzegać wpływ uczenia maszynowego z Google RankBrain.
ogłoszone w październiku 2015, RankBrain był początkowo używany do próby interpretacji 15% wyszukiwań, których Google nigdy wcześniej nie widział, na podstawie słów lub fraz wprowadzonych przez użytkownika.
od tego czasu Google rozszerzyło RankBrain, aby działał przy każdym wyszukiwaniu.
chociaż RankBrain wpływa na ranking, nie jest to czynnik rankingowy w tradycyjnym sensie, gdzie otrzymujesz lepsze rankingi za robienie x, y i Z.
a w świecie inteligentnych poszukiwań wkrótce będzie o wiele więcej.
- wzrasta liczba wyszukiwań głosowych.
- wyszukiwanie wizualne stało się szalenie dobre
- Użytkownicy (i marki) coraz częściej przyjmują chatboty i używają osobistych asystentów (np. Siri Apple, Alexa Amazona i Cortana Microsoftu).
te postępy w technologii oznaczają bardziej ekscytujące czasy dla tych, którzy robią SEO.
podstawowe Aktualizacje Google
Google codziennie aktualizuje swój algorytm.
ale przez cały rok Google wydaje podstawowe aktualizacje, gdy zmienia się jego algorytm.
istnieją również szerokie aktualizacje algorytmów rdzeniowych.
celem tych podstawowych aktualizacji jest stworzenie lepszego doświadczenia wyszukiwania dla użytkowników z bardziej odpowiednimi, godnymi zaufania wynikami wyszukiwania.
te podstawowe aktualizacje Google nie są ukierunkowane na określoną stronę lub witrynę, ale mają na celu poprawę sposobu, w jaki system śledzi zawartość.
Oto jak Google opisał te podstawowe aktualizacje:
„jednym ze sposobów myślenia o tym, jak działa podstawowa aktualizacja, jest wyobrażenie sobie, że zrobiłeś listę 100 najlepszych filmów w 2015 roku. Kilka lat później, w 2019 roku, odświeżasz listę. To się naturalnie zmieni. Nowe i wspaniałe filmy, które nigdy wcześniej nie istniały, będą teraz kandydatami do włączenia. Możesz również ponownie ocenić niektóre filmy i uświadomić sobie, że zasługują na wyższe miejsce na liście niż wcześniej.”
w marcu 2018 r.Google potwierdziło, że wprowadzono aktualizację algorytmu szerokiego rdzenia, aby skorzystać ze stron” niedocenianych”.
nieco ponad miesiąc później Google opublikowało kolejną aktualizację algorytmu szerokiego rdzenia ukierunkowaną na trafność treści.
następnie w sierpniu pojawiła się kolejna szeroka aktualizacja rdzenia (czasami błędnie i niedokładnie określana jako aktualizacja „Medyka”) ukierunkowana na witryny o niskiej jakości treści.
w marcu 2019 r., jako rozszerzenie aktualizacji rdzeniowej z sierpnia 2018 r., Google potwierdziło, że pojawiła się aktualizacja rdzeniowa (znana również jako Florida 2) i miała być duża.
ale społeczność SEO uważała, że to raczej cofnięcie poprzednich algorytmów.
i kolejna szeroka aktualizacja rdzeniowa w czerwcu 2019 r., która ujawniła słabości E-A-T na stronach internetowych, koncentrując się na autorytecie i wiarygodności linków przychodzących.
co jakiś czas Google wydaje szeroką aktualizację, która ma wpływ na wszystkie wyniki wyszukiwania na całym świecie.
na przykład we wrześniu 2019 r.była szeroka aktualizacja rdzenia, która miała na celu zwiększenie witryn o ogólnej optymalnej wydajności. Kolejna szeroka podstawowa aktualizacja w styczniu 2020 r.ukierunkowana na kategorie YMYL (Twoje pieniądze, twoje życie).
to jest kluczowa różnica z szerokimi aktualizacjami rdzenia vs. podstawowe aktualizacje-musisz przeanalizować ogólną witrynę, a nie konkretną stronę.
Ostatnio Google wydało podstawową aktualizację w maju 2020, która skierowana jest na cienkie strony docelowe treści, dając jednocześnie impuls do lokalnych wyników wyszukiwania.
BERT
BERT jest największą aktualizacją algorytmu Google od czasu RankBrain.
Bert oznacza dwukierunkowe reprezentacje koderów z transformatorów używanych do przetwarzania języka naturalnego.
zasadniczo pomaga Google lepiej zrozumieć kontekst zapytań wyszukiwania.
na przykład słowo „nietoperz” może oznaczać nocne skrzydlate zwierzę często kojarzone z Batmanem. Lub może być używany, gdy gracz w baseball idzie do bat.
dzięki BERT Google jest w stanie analizować kontekst, aby zapewnić lepsze wyniki wyszukiwania.
to, co sprawia, że BERT jest jeszcze lepszy, to fakt, że Google może teraz używać słów otaczających twoje słowa kluczowe, aby pomóc swoim pająkom strawić Twoje treści.
na przykład ” poszedłem do jaskini nietoperza.”Lub,” po moim kijem, poszedłem do ziemianki.”Google może teraz wygenerować model kontekstu wokół innych słów w zdaniu. Jest to kluczowy czynnik w sposobie, w jaki przetwarzanie języka naturalnego identyfikuje komunikację człowieka.
jak powiedział Danny Sullivan z Google:
„nie ma nic do optymalizacji dla Berta, ani nic do przemyślenia. Podstawy naszego dążenia do nagradzania wspaniałych treści pozostają niezmienione.”
jeśli nadal chcesz dowiedzieć się więcej o BERCIE, Dawn Anderson wyjaśnia wszystko, co musisz wiedzieć o BERCIE tutaj.
wyróżnione fragmenty
prawdopodobnie widziałeś już wyróżnione fragmenty, ale nie zdawałeś sobie sprawy, czym one są.
wyróżnione fragmenty to krótki tekst, punkty wypunktowane, liczby lub tabele, które pojawiają się na górze wyszukiwarki Google.
celem wyróżnionego fragmentu jest odpowiedź na zapytanie Wyszukiwarki bezpośrednio w SERPach bez konieczności klikania na stronę internetową.
ale polecane fragmenty mogą być bardzo niestabilne, więc stąpaj lekko.
Polecane fragmenty nie są niczym nowym. Zostały zauważone w 2014 roku.
wyróżnione fragmenty wywołały urok pożądanej ” pozycji zero.”Oznacza to, że Twój wynik wyszukiwania jest wyróżniony przede wszystkim innymi zakłóceniami w SERP, a także pojawiłbyś się w wynikach organicznych.
w styczniu 2020 r.firma Google zaktualizowała tę funkcję, aby usunąć duplikaty wyników wyszukiwania wyróżnionych fragmentów, dzięki czemu użytkownik zostanie uwzględniony w wyróżnionym fragmencie lub w wyniku organicznym, a nie w obu przypadkach.
a w czerwcu 2020 r. Google opublikowało kolejną aktualizację informującą, że wybrane fragmenty będą teraz przekierowywać użytkowników bezpośrednio do tekstu, który jest odpowiedni dla ich zapytania.
użytkownicy widzą teraz tekst podświetlony na Żółto.
ponieważ wyszukiwanie głosowe nadal się udoskonala, wyróżnione fragmenty będą stanowić dużą okazję do zwiększenia widoczności organicznej.
wnioski
wyszukiwarki i SEO przeszły długą drogę od lat 90.
w tym poście poruszyliśmy tylko kilka z tych sposobów.
historia SEO została wypełniona ekscytującymi zwrotami – narodzinami nowych wyszukiwarek, śmiercią starych wyszukiwarek, nowymi funkcjami SERP, nowymi algorytmami i ciągłymi testami i aktualizacjami – a także pojawieniem się świetnych publikacji SEO, konferencji, narzędzi i ekspertów.
podczas gdy wyszukiwarki i SEO ewoluowały znacznie na przestrzeni lat, jedno pozostaje prawdą: tak długo, jak istnieją Wyszukiwarki, SEO pozostanie istotne.
i dopiero zaczęliśmy!
Wyróżniony Obrazek: Paulo Bobita