20+ Ans de RÉFÉRENCEMENT: Une Brève Histoire de l’Optimisation des Moteurs de Recherche

L’optimisation des moteurs de recherche (SEO) tourne beaucoup autour de Google aujourd’hui.

Cependant, la pratique que nous connaissons maintenant sous le nom de SEO est en fait antérieure au moteur de recherche le plus populaire au monde cofondé par Larry Page et Sergey Brin.

Bien qu’on puisse affirmer que le référencement et tout ce qui concerne le marketing des moteurs de recherche ont commencé avec le lancement du premier site Web publié en 1991, ou peut-être lorsque le premier moteur de recherche Web a été lancé, l’histoire du référencement commence « officiellement » un peu plus tard, vers 1997.

Selon Bob Heyman, auteur de Digital Engagement, nous ne pouvons remercier nul autre que le manager du groupe de rock Jefferson Starship d’avoir contribué à donner naissance à un nouveau domaine que nous appellerions « optimisation des moteurs de recherche. »

Vous voyez, il était très contrarié que le site officiel de Jefferson Starship se classe à la Page 4 d’un moteur de recherche à l’époque, plutôt qu’en position 1 à la Page 1.

Certes, nous ne saurons peut-être jamais si ce conte est une histoire plus révisionniste ou un fait à 100%, tous les signes pointent définitivement vers le terme SEO originaire vers 1997.

Publicité
Continuer la lecture Ci-dessous

Faites un peu plus de chasse et vous verrez que John Audette de Multimedia Marketing Group utilisait le terme dès le 15 février 1997.

Le classement élevé sur les moteurs de recherche en 1997 était encore un concept assez nouveau.

Il était également très orienté répertoire.

Avant que DMOZ n’alimente la classification Google originale, LookSmart était alimenté par le zèle, Go.com était son propre répertoire, et le répertoire Yahoo était un acteur majeur de la recherche Yahoo.

Si vous n’êtes pas familier avec DMOZ, le projet Mozilla Open Directory (rappelez-vous, Mozilla était une entreprise et Moz était une marque bien avant SEOMoz), c’était essentiellement des Pages jaunes pour les sites Web.

C’est ce sur quoi Yahoo a été fondé à l’origine; la possibilité de trouver les meilleurs sites Web approuvés par les éditeurs.

J’ai commencé à faire du référencement en 1998, comme un besoin pour nos clients qui ont construit des sites sympas mais qui obtenaient peu de trafic.

Je ne savais pas que cela deviendrait un style de vie.

Là encore, le World Wide Web était encore un concept assez nouveau à l’époque pour la plupart des gens.

Publicité
Continuer la lecture Ci-dessous

Aujourd’hui? Tout le monde veut régir les pages de résultats des moteurs de recherche (SERP).

Optimisation des moteurs de recherche vs. Search Engine Marketing

Avant que l’optimisation des moteurs de recherche ne devienne le nom officiel, d’autres termes étaient également utilisés:

  • Placement dans les moteurs de recherche.
  • Positionnement dans les moteurs de recherche.
  • Classement des moteurs de recherche.
  • Enregistrement dans le moteur de recherche.
  • Soumission de moteur de recherche.
  • Promotion du site Web.

Mais aucune discussion ne serait complète sans mentionner un autre terme Marketing

Marketing des moteurs de recherche.

À un moment donné en 2001, un éminent rédacteur de l’industrie a suggéré le marketing par moteur de recherche comme successeur de l’optimisation des moteurs de recherche.

Évidemment, cela ne s’est pas produit.

Préparez-vous maintenant; vous allez voir de nombreuses fausses affirmations (par exemple, « le référencement est mort », « le nouveau référencement ») et des tentatives de changement de marque SEO (par exemple, « Optimisation de l’expérience de recherche »).

Bien que le référencement en tant que terme ne soit pas parfait – après tout, nous n’optimisons pas les moteurs de recherche, nous optimisons notre présence sur le Web –, il est resté le terme préféré de notre industrie depuis plus de 20 ans maintenant et le sera probablement dans un avenir prévisible.

Quant au marketing des moteurs de recherche?

Il est toujours utilisé mais est maintenant plus associé au marketing de recherche et à la publicité payants.

Les deux termes coexistent pacifiquement aujourd’hui.

Une chronologie de l’historique des moteurs de recherche

Les moteurs de recherche ont changé la façon dont nous trouvons des informations, menons des recherches, achetons des produits et des services, nous divertissons et nous connectons avec les autres.

Derrière presque toutes les destinations en ligne – qu’il s’agisse d’un site Web, d’un blog, d’un réseau social ou d’une application – se trouve un moteur de recherche.

Les moteurs de recherche sont devenus la force de connexion et le guide directionnel de la vie quotidienne.

Mais comment tout cela a-t-il commencé?

Nous avons établi une chronologie des étapes marquantes de l’histoire des moteurs de recherche et de l’optimisation des moteurs de recherche pour comprendre les racines de cette technologie, qui est devenue une partie si importante de notre monde.

Aube du référencement: Ère du « Far West »

Au cours de la dernière décennie des années 1900, le paysage des moteurs de recherche était très compétitif.

Vous aviez le choix entre plusieurs moteurs de recherche, à la fois des annuaires alimentés par des humains et des listes basées sur des robots, notamment AltaVista, Ask Jeeves, Excite, Infoseek, Lycos et Yahoo.

Publicité
Continuer la lecture Ci-dessous

Au début, la seule façon d’effectuer un référencement était d’effectuer des activités sur la page.

Cela comprenait l’optimisation pour des facteurs tels que:

  • S’assurer que le contenu était bon et pertinent.
  • Il y avait assez de texte.
  • Vos balises HTML étaient exactes.
  • Vous aviez des liens internes et des liens sortants.

Si vous vouliez bien vous classer à cette époque, l’astuce consistait à peu près à répéter vos mots-clés suffisamment de fois dans vos pages Web et balises méta.

Vous voulez devancer une page qui utilise un mot-clé 100 fois? Ensuite, vous utiliseriez le mot-clé 200 fois!

Aujourd’hui, nous appelons cette pratique le spamming.

Voici quelques faits saillants:

1994

Yahoo a été créé par les étudiants de l’Université de Stanford Jerry Wang et David Filo dans une bande-annonce sur le campus. Yahoo était à l’origine une liste de signets Internet et un répertoire de sites intéressants.

Les webmasters devaient soumettre manuellement leur page à l’annuaire Yahoo pour indexation afin qu’elle soit là pour que Yahoo puisse la trouver lorsque quelqu’un effectuait une recherche.

Publicité
Continuer la lecture Ci-dessous

AltaVista, Excite et Lycos ont également été lancés.

1996

Page et Brin, deux étudiants de l’Université de Stanford, ont construit et testé Backrub, un nouveau moteur de recherche qui classe les sites en fonction de la pertinence et de la popularité des liens entrants.

Backrub deviendrait finalement Google. HotBot, propulsé par Inktomi, a également été lancé.

1997

Suite au succès du Guide du Webmestre sur les moteurs de recherche, Danny Sullivan a lancé Search Engine Watch, un site Web dédié à fournir des nouvelles sur l’industrie de la recherche, des conseils sur la recherche sur le Web et des informations sur la façon de mieux classer les sites Web.

(Dix ans plus tard, après avoir quitté SEW, Sullivan a fondé une autre publication de recherche populaire, Search Engine Land, et il travaille maintenant chez Google.)

Ask Jeeves a également fait ses débuts et Google.com a été enregistré.

1998

Goto.com lancé avec des liens sponsorisés et une recherche payante. Les annonceurs enchérissent Goto.com pour se classer au-dessus des résultats de recherche organiques, qui ont été alimentés par Inktomi. Goto.com a finalement été acquis par Yahoo.

DMOZ (le projet Open Directory) est devenu l’endroit le plus recherché par les praticiens du référencement pour répertorier leurs pages.

Publicité
Continuer la lecture Ci-dessous

MSN est entré dans l’espace avec MSN Search, initialement alimenté par Inktomi.

1999

La toute première conférence de marketing de recherche, Search Engine Strategies (SES), a eu lieu. Vous pouvez lire une rétrospective sur cet événement par Sullivan ici.

(La série de conférences SES s’est poursuivie sous divers surnoms et sociétés mères jusqu’à sa fermeture en 2016.)

La révolution Google

En 2000, Yahoo a réussi le pire coup stratégique de l’histoire de la recherche et s’est associé à Google et a laissé Google alimenter leurs résultats organiques au lieu d’Inktomi.

Auparavant, Google était un moteur de recherche peu connu. À peine connu!

Le résultat final: chaque résultat de recherche Yahoo disait « Alimenté par Google » et ils ont fini par présenter leur plus grand concurrent au monde et Google est devenu un nom familier.

Jusqu’à présent, les moteurs de recherche classaient principalement les sites en fonction du contenu de la page, des noms de domaine, de la possibilité de figurer dans les répertoires susmentionnés et de la structure de base du site (fil d’ariane).

Mais le robot d’exploration Web et l’algorithme PageRank de Google étaient révolutionnaires pour la recherche d’informations.

Google a examiné les facteurs à la fois sur la page et hors page – la quantité et la qualité des liens externes pointant vers un site Web (ainsi que le texte d’ancrage utilisé).

Publicité
Continuer la lecture Ci-dessous

Si vous y réfléchissez, l’algorithme de Google consistait essentiellement à dire « si les gens parlent de vous, vous devez être important. »

Bien que les liens ne soient qu’une composante de l’algorithme de classement général de Google, les praticiens du référencement se sont attachés aux liens comme étant le facteur le plus important – et toute une sous-industrie de la création de liens a été créée.

Au cours de la décennie suivante, il est devenu une course pour acquérir autant de liens que possible dans l’espoir de se classer plus haut.

Les liens sont devenus une tactique fortement abusée que Google devrait aborder dans les années à venir.

C’est également en 2000 que la barre d’outils Google est devenue disponible sur Internet Explorer, permettant aux praticiens du référencement de voir leur score de PageRank (un nombre compris entre 0 et 10).

Cela a inauguré une ère d’e-mails de demande d’échange de liens non sollicités.

Ainsi, avec PageRank, Google a essentiellement introduit une mesure de la monnaie dans ses liens. Tout comme l’autorité de domaine est mal utilisée aujourd’hui.

Les résultats organiques de Google ont également obtenu une certaine compagnie sous la forme d’annonces AdWords à partir de 2000.

Publicité
Continuer la lecture Ci-dessous

Ces annonces de recherche payantes ont commencé à apparaître au-dessus, en dessous et à droite des résultats naturels (c’est-à-dire non rémunérés) de Google.

Pendant ce temps, un groupe de webmasters s’est réuni de manière informelle dans un pub à Londres pour commencer à partager des informations sur tout ce qui touche au référencement en 2000.

Ce rassemblement informel s’est finalement transformé en Pubcon, une grande série de conférences de recherche qui se déroule encore aujourd’hui.

Au cours des mois et des années à venir, le monde du référencement s’est habitué à une Google Dance mensuelle, ou une période de temps pendant laquelle Google a mis à jour son index, entraînant parfois d’importantes fluctuations de classement.

Bien que Brin de Google ait dit autrefois que Google ne croyait pas au spam sur le Web, son opinion avait probablement changé au moment où 2003 a roulé.

Le référencement est devenu beaucoup plus difficile à la suite de mises à jour comme en Floride, car il est devenu beaucoup plus important que de simplement répéter des mots clés X fois.

Google AdSense : Monétiser un Contenu SEO Terrible

En 2003, après avoir acquis Blogger.com , Google a lancé AdSense, qui sert des publicités Google ciblées contextuellement sur les sites des éditeurs.

Publicité
Continuer la lecture Ci-dessous

Le mélange d’AdSense et Blogger.com a conduit à une montée en puissance de la publication en ligne simple et monétisée – et à une révolution des blogs.

Alors que Google ne s’en rendait probablement pas compte à l’époque, ils créaient des problèmes qu’ils devraient résoudre sur la route.

AdSense a donné lieu à des tactiques de spam et à des sites faits pour AdSense remplis de contenu mince / pauvre / volé qui n’existaient que pour bien se classer, obtenir des clics et gagner de l’argent.

Oh et quelque chose d’autre important s’est produit en 2003.

J’ai fondé le site sur lequel vous êtes, Search Engine Journal!

Et je suis incroyablement heureux de dire que nous sommes toujours là, plus forts que jamais.

Référencement local & Personnalisation

Vers 2004, Google et d’autres moteurs de recherche de premier plan ont commencé à améliorer les résultats des requêtes ayant une intention géographique (par exemple, un restaurant, un plombier ou un autre type d’entreprise ou de fournisseur de services dans votre ville).

En 2006, Google a déployé une boîte Maps Plus, ce qui m’a beaucoup impressionné à l’époque.

C’est également vers 2004 que Google et les moteurs de recherche ont commencé à utiliser davantage les données des utilisateurs finaux, telles que l’historique de recherche et les centres d’intérêt, pour personnaliser les résultats de recherche.

Publicité
Continuer la lecture Ci-dessous

Cela signifie que les résultats que vous avez vus peuvent être différents de ce que quelqu’un assis à côté de vous dans un café a vu lorsqu’il a effectué une recherche pour la même requête.

Toujours en 2005, les balises nofollow ont été créées pour lutter contre le spam.

Les professionnels du référencement ont commencé à utiliser cette balise comme un moyen de sculpter le PageRank.

Google a également lancé quelques mises à jour remarquables:

  • Jagger, ce qui a contribué à diminuer le niveau des échanges de liens non sollicités qui volaient autour, ainsi qu’à annoncer le déclin de l’importance du texte d’ancrage en tant que facteur en raison de sa corruptibilité.
  • Big Daddy (inventé par Jeff Manson de RealGeeks), qui a amélioré l’architecture de Google pour permettre une meilleure compréhension de la valeur et de la relation des liens entre les sites.

YouTube, Google Analytics & Outils pour les webmasters

En octobre 2006, Google a acquis le réseau de partage de vidéos généré par les utilisateurs YouTube pour 1 dollar.65 milliards, qui est finalement devenu la deuxième propriété de recherche la plus utilisée au monde.

Aujourd’hui, YouTube compte 2 milliards d’utilisateurs !

En raison de sa popularité croissante, le référencement vidéo devient crucial pour les marques, les entreprises et les particuliers qui souhaitent être trouvés.

Google a également lancé deux outils incroyablement importants dans 2006:

  • Google Analytics. Cet outil gratuit basé sur le Web était si populaire au lancement que les webmasters ont reçu des avertissements de temps d’arrêt et de maintenance.
  • Outils pour les webmasters de Google. Désormais connus sous le nom de Console de recherche, les outils pour les webmasters de Google permettent aux webmasters de visualiser les erreurs d’analyse, de voir quelles recherches ont été effectuées sur votre site et de demander une réinscription.
Publicité
Continuer la lecture Ci-dessous

Toujours en 2006, les sitemaps XML ont reçu un support universel des moteurs de recherche.

Les sitemaps XML permettent aux webmasters d’afficher aux moteurs de recherche toutes les URL de leur site Web disponibles pour l’exploration.

Un plan de site XML contient non seulement une liste d’URL, mais aussi une gamme d’informations supplémentaires, ce qui a aidé les moteurs de recherche à explorer plus intelligemment.

Recherche universelle

Nous avons vraiment commencé à voir la recherche évoluer de manière nouvelle et passionnante à partir de 2007.

Toutes ces mises à jour visaient à améliorer l’expérience de recherche des utilisateurs.

Commençons par la recherche universelle de Google.

Jusqu’à présent, les résultats de la recherche étaient composés de 10 liens bleus.

Google a ensuite commencé à mélanger les résultats de recherche organiques traditionnels avec d’autres types de résultats verticaux tels que des actualités, des vidéos et des images.

Il s’agissait facilement du plus grand changement apporté à la recherche Google – et au référencement – depuis la mise à jour de la Floride.

Nettoyage du cloaque

En 2008, Eric Schmidt, alors PDG de Google, a déclaré qu’Internet devenait un cloaque et que les marques étaient la solution. « Les marques sont la façon dont vous triez le cloaque », a-t-il déclaré.

Publicité
Continuer la lecture Ci-dessous

Moins de six mois après son commentaire, une mise à jour Google appelée Vince est arrivée.

Les grandes marques semblaient soudainement se classer beaucoup mieux dans les SERPs.

Mais il n’était pas vraiment destiné à récompenser les marques, selon Google.

Google voulait accorder plus d’importance à la confiance dans l’algorithme (et les grandes marques ont tendance à avoir plus de confiance que les marques plus petites et moins établies).

Peu de temps après cette mise à jour, Google en a publié une autre pour améliorer la vitesse de leur indexation, appelée Caféine.

Comme le rapportait Search Engine Journal à l’époque, la caféine était « une architecture de recherche de nouvelle génération pour Google qui est censée être plus rapide et plus précise, fournir de meilleurs résultats plus pertinents et explorer de plus grandes parties du Web. »

En parlant de vitesse, en 2010, Google a annoncé que la vitesse du site était un facteur de classement.

Bing & The Search Alliance

En 2009, Microsoft Live Search est devenu Bing.

Ensuite, pour tenter de contester l’emprise de Google sur près de 70% du marché de la recherche aux États-Unis, Yahoo et Microsoft ont uni leurs forces pour s’associer sur un contrat de recherche de 10 ans (bien qu’il ait fini par être retravaillé cinq ans plus tard).

Publicité
Continuer la lecture Ci-dessous

L’Alliance de recherche a vu la puissance Bing de Microsoft Les résultats de recherche organiques et payants de Yahoo.

Bien qu’il ait fait de Bing le moteur de recherche numéro 2, ils n’ont finalement pas réussi à briser l’emprise massive de Google sur la recherche aux États-Unis et dans le monde. En octobre 2020, Bing a officiellement changé de nom pour Microsoft Bing.

L’essor des médias sociaux

Un autre phénomène est apparu à la fin des années 2000 : les réseaux sociaux.

Google a fait son grand pari sur YouTube (bien qu’il réessayerait avec le désormais disparu Google+).

Mais d’autres réseaux comme Facebook, Twitter et LinkedIn sont tous apparus comme des acteurs majeurs (avec beaucoup d’autres à venir et à aller dans les années suivantes).

Parallèlement à l’essor des médias sociaux, la spéculation selon laquelle les signaux sociaux peuvent avoir un impact sur les classements de recherche.

Oui, les médias sociaux peuvent aider au référencement, mais indirectement – tout comme d’autres formes de marketing peuvent aider à générer plus de trafic vers votre site Web et à accroître la notoriété et l’affinité de la marque (ce qui génère une demande de recherche).

Alors que l’impact des partages sociaux (likes, tweets, +1, etc.) a été nié à maintes reprises par Google au fil des ans comme étant un facteur de classement, il a continué à être répertorié comme ayant une forte corrélation dans diverses études de facteurs de classement.

Publicité
Continuer la lecture Ci-dessous

Si vous souhaitez en savoir plus sur ce sujet, je vous suggère fortement de lire Comment les médias sociaux aident le référencement.

Schéma

Le balisage de schéma, une forme de microdonnées, a été introduit en 2011 pour aider les moteurs de recherche à interpréter le contexte de la requête. Vous pouvez afficher chaque type de balisage de schéma sur Schema.org .

Le schéma n’est pas un facteur de classement. Et, il y a peu de preuves à l’appui, cela a un impact sur vos performances de recherche.

Cependant, le schéma vous aide à vous démarquer dans les SERPs avec des extraits riches et en vedette.

Par exemple, dans un webinaire de journal de moteur de recherche, Milestone a déclaré qu’il avait constaté une augmentation de 33 à 66% des impressions de recherche pour les grandes chaînes de restauration rapide après le déploiement du schéma.

Une autre expérience d’InLinks a révélé que les sites avec un schéma gagnaient en classement une fois le schéma implémenté.

Si vous ne savez pas si vous avez correctement implémenté des données structurées, testez-les dans l’outil de test de données structurées de Google.

Le zoo de Google: Panda & Penguin

Deux mises à jour algorithmiques majeures – Panda en 2011 et Penguin en 2012 – ont eu un impact important sur le référencement qui se fait encore sentir à ce jour, alors que Google a une nouvelle fois tenté de nettoyer ses résultats de recherche et de récompenser les sites de haute qualité.

Publicité
Continuer la lecture Ci-dessous

En 2011, Google a constaté que ses résultats de recherche faisaient l’objet d’un examen minutieux parce que les soi-disant « fermes de contenu » (sites Web qui produisaient des volumes élevés de contenu de faible qualité) dominaient les résultats de recherche.

Les SERP de Google étaient également encombrés de sites Web contenant du contenu non original et généré automatiquement – et même, dans certains cas, les sites scraper dépassaient les créateurs de contenu.

En conséquence, ces sites généraient des tonnes de revenus publicitaires (rappelez-vous quand j’ai mentionné le problème AdSense auto-fabriqué par Google?).

Ces sites vivaient et mouraient également du trafic organique de Google.

Mais une fois la mise à jour Panda de Google déployée en 2011, de nombreux sites Web ont vu une grande partie, sinon la totalité, de ce trafic disparaître du jour au lendemain.

Google a fourni un aperçu de ce qui compte comme un site de haute qualité.

Visant à éliminer le contenu de mauvaise qualité (ou mince), Panda a été mis à jour périodiquement au cours des années à venir, pour finalement être intégré à l’algorithme principal de Google en 2016.

Alors que les sites Web se remettent encore des effets de Panda, Google a lancé un algorithme de sur-optimisation très attendu, destiné à éliminer les « tactiques de spam agressives » de ses résultats.

Publicité
Continuer la lecture Ci-dessous

Finalement surnommé Penguin, cet algorithme ciblait les schémas de liens (sites Web avec des modèles de liens inhabituels, y compris une grande quantité de texte d’ancrage de correspondance exacte correspondant aux mots clés pour lesquels vous

souhaitiez vous classer) et le bourrage de mots clés.

Penguin n’a pas été mis à jour aussi fréquemment que Panda, avec plus d’un an s’écoulant entre certaines mises à jour. Et, comme Panda, Penguin est devenu une partie de l’algorithme en temps réel de Google en 2016.

Des choses, Pas des chaînes

En mai 2012, Google a dévoilé le Knowledge Graph.

Il s’agissait d’un changement majeur de l’interprétation des chaînes de mots-clés vers la compréhension de la sémantique et de l’intention.

Voici comment Amit Singhal, ancien vice-président directeur de l’ingénierie de Google, l’a décrit lors du lancement:

« Le Knowledge Graph vous permet de rechercher des choses, des personnes ou des lieux que Google connaît – monuments, célébrités, villes, équipes sportives, bâtiments, caractéristiques géographiques, films, objets célestes, œuvres d’art, etc. – et d’obtenir instantanément des informations pertinentes pour votre requête. Il s’agit d’une première étape cruciale vers la construction de la prochaine génération de recherche, qui puise dans l’intelligence collective du Web et comprend le monde un peu plus comme les gens. »

Google a amélioré ses résultats de recherche avec ces informations.

Des panneaux de connaissances, des boîtes et des carrousels peuvent apparaître chaque fois que les gens recherchent l’un des milliards d’entités et de faits du graphique des connaissances.

La prochaine étape de la prochaine génération de recherche de Google est arrivée en septembre 2013 sous la forme de Hummingbird, un nouvel algorithme conçu pour mieux répondre aux requêtes en langage naturel et à la recherche conversationnelle.

Avec l’essor du mobile (et de la recherche vocale), Google devait complètement reconstruire le fonctionnement de son algorithme pour répondre aux besoins des chercheurs modernes.

Colibri a été considéré comme le plus grand changement apporté à l’algorithme principal de Google depuis 2001. De toute évidence, Google voulait fournir des résultats plus rapides et plus pertinents, en particulier aux utilisateurs mobiles.

Mobile-First

À partir de quelque part vers 2005, une question n’a cessé d’être posée dans notre industrie:

Est-ce « l’année du mobile »?

Eh bien, il s’avère que ce n’était pas le cas en 2005.

Ou 2006.

L’année 2007 non plus.

Ou 2008. Ou 2009.

Pas même en 2010 – lorsque Google s’est transformé en une entreprise axée sur le mobile.

Puis 2011, 2012, 2013 et 2014 sont allées et venues.

Le mobile a fait l’objet de discussions et de beaucoup de battage médiatique parce qu’il grandissait comme un fou pendant tout ce temps.

Au fur et à mesure que de plus en plus d’utilisateurs adoptaient les smartphones, ils recherchaient de plus en plus des entreprises et des objets en déplacement.

Enfin, en 2015, nous avons eu l’année du Mobile – le point où les recherches mobiles ont dépassé la recherche sur ordinateur pour la première fois sur Google. Et bien que cela soit vrai en termes de nombres de recherche bruts, il est également vrai que l’intention de recherche est très différente et que les taux de conversion restent beaucoup plus bas sur les appareils mobiles.

C’est également l’année où comScore a signalé que les utilisateurs d’Internet uniquement mobiles dépassaient les utilisateurs de bureau uniquement.

C’est également en 2015 que Google a lancé une mise à jour d’algorithme très attendue pour les mobiles, conçue pour donner aux utilisateurs « les résultats les plus pertinents et les plus opportuns, que les informations se trouvent sur des pages Web adaptées aux mobiles ou dans une application mobile. »

Pour tenter d’accélérer les pages, Google a également introduit des Pages mobiles accélérées (AMP) en 2016.

L’idée derrière AMP était de charger instantanément du contenu. De nombreux médias et éditeurs ont rapidement adopté AMP et continuent de l’utiliser aujourd’hui.

Et, cela ne vous surprendra peut-être pas, mais en janvier 2017, Google a annoncé que la vitesse de la page serait désormais un facteur de classement pour les recherches mobiles.

Au cours de ce même mois, Google a déclaré qu’il commencerait à dévaluer les pages avec des fenêtres contextuelles intrusives.

En juillet 2019, l’indexation mobile d’abord a été activée pour tous les nouveaux sites Web. Et, en mars 2021, tous les sites Web seront passés à l’indexation mobile d’abord.

Apprentissage automatique & Recherche intelligente

Plus tôt, j’ai mentionné que Google, à l’origine construit autour de la recherche d’informations, est devenu une entreprise axée sur le mobile.

Eh bien, cela a changé en 2017 parce que le PDG de Google, Sundar Pichai, a déclaré que Google était une entreprise axée sur l’apprentissage automatique.

Aujourd’hui, la recherche Google est conçue pour informer et aider, plutôt que de donner aux utilisateurs une liste de liens.

C’est pourquoi Google a intégré l’apprentissage automatique à tous ses produits, y compris la recherche, Gmail, Ads, Google Assistant, etc.

En termes de recherche, nous avons déjà commencé à voir l’impact de l’apprentissage automatique avec Google RankBrain.

Annoncé en octobre 2015, RankBrain a d’abord été utilisé pour essayer d’interpréter les 15% de recherches que Google n’a jamais vues auparavant, en fonction des mots ou des phrases entrés par l’utilisateur.

Depuis lors, Google a étendu RankBrain à chaque recherche.

Bien que RankBrain ait un impact sur le classement, ce n’est pas un facteur de classement au sens traditionnel, où vous êtes récompensé par de meilleurs classements pour avoir fait x, y et z.

Et il y a beaucoup plus à venir dans le monde de la recherche intelligente.

  • Les recherches vocales augmentent.
  • La recherche visuelle est devenue incroyablement bonne
  • Les utilisateurs (et les marques) adoptent de plus en plus les chatbots et utilisent des assistants personnels (par exemple, Siri d’Apple, Alexa d’Amazon et Cortana de Microsoft).

Ces progrès technologiques signifient que des temps plus excitants sont à venir pour ceux qui font du référencement.

Mises à jour de base de Google

Google met à jour son algorithme tous les jours.

Mais, tout au long de l’année, Google publie des mises à jour de base en cas de modification de son algorithme.

Il existe également de larges mises à jour de l’algorithme de base.

L’objectif de ces mises à jour de base est de créer une meilleure expérience de recherche pour les utilisateurs avec des résultats de recherche plus pertinents et fiables.

Ces mises à jour Google Core ne ciblent pas une page ou un site spécifique, mais visent à améliorer la façon dont le système suit le contenu.

Voici comment Google a décrit ces mises à jour de base:

« Une façon de penser au fonctionnement d’une mise à jour de base est d’imaginer que vous avez fait une liste des 100 meilleurs films en 2015. Quelques années plus tard, en 2019, vous actualisez la liste. Cela va naturellement changer. Certains films nouveaux et merveilleux qui n’existaient jamais auparavant seront désormais candidats à l’inclusion. Vous pouvez également réévaluer certains films et réaliser qu’ils méritaient une place plus élevée sur la liste qu’auparavant. »

En mars 2018, Google a confirmé qu’une mise à jour générale de l’algorithme de base avait été déployée au profit des pages « sous-récompensées « .

Un peu plus d’un mois plus tard, Google a publié une autre mise à jour de l’algorithme de base axée sur la pertinence du contenu.

Ensuite, une autre mise à jour de base étendue a été déployée en août (parfois appelée à tort et à tort la mise à jour « Medic ») ciblant les sites avec un contenu de mauvaise qualité.

En mars 2019, dans le prolongement de la mise à jour de base d’août 2018, Google a confirmé qu’une mise à jour de base (alias Florida 2) était là et qu’elle devait être importante.

Mais, la communauté SEO a estimé qu’il s’agissait plutôt d’une restauration des algorithmes précédents.

Et, une autre mise à jour de base en juin 2019 qui a révélé les faiblesses de l’E-A-T sur les sites Web, en mettant l’accent sur l’autorité et la fiabilité des liens entrants.

De temps en temps, Google publiera une vaste mise à jour de base qui aura un impact sur tous les résultats de recherche dans le monde entier.

Par exemple, il y a eu une mise à jour de base générale en septembre 2019 qui visait à stimuler les sites avec des performances globales optimales. Et, une autre mise à jour de base en janvier 2020 qui ciblait les catégories YMYL (votre argent, votre vie).

C’est la principale différence avec les mises à jour de base étendues par rapport à celles de base. mises à jour de base – vous devez analyser votre site dans son ensemble, pas une page spécifique.

Plus récemment, Google a publié une mise à jour de base en mai 2020 qui ciblait les pages de destination de contenu mince tout en donnant un coup de pouce aux résultats de recherche locaux.

BERT

BERT est la plus grande mise à jour de l’algorithme Google depuis RankBrain.

BERT signifie Représentations de codeurs bidirectionnels à partir de transformateurs utilisés pour le traitement du langage naturel.

Essentiellement, il aide Google à mieux comprendre le contexte des requêtes de recherche.

Par exemple, le mot « chauve-souris » peut désigner un animal ailé nocturne souvent associé à Batman. Ou, il peut être utilisé lorsqu’un joueur de baseball monte au bâton.

Avec BERT, Google est capable de disséquer le contexte pour fournir de meilleurs résultats de recherche.

Ce qui rend BERT encore meilleur, c’est que Google peut désormais utiliser les mots entourant vos mots clés pour aider ses araignées à digérer votre contenu.

Par exemple, « Je suis allé dans la grotte des chauves-souris. »Ou »Après ma batte, je suis allé dans la pirogue. »Google peut désormais générer un modèle de contexte autour d’autres mots de la phrase. C’est un facteur crucial dans la façon dont le traitement du langage naturel a identifié la communication humaine.

Comme l’a dit Danny Sullivan de Google:

 » Il n’y a rien à optimiser avec BERT, ni rien à repenser pour quiconque. Les fondamentaux de nous cherchant à récompenser un excellent contenu restent inchangés. »

Si vous souhaitez toujours en savoir plus sur BERT, Dawn Anderson vous explique tout ce que vous devez savoir sur BERT ici.

Extraits en vedette

Vous avez probablement déjà vu des extraits en vedette, mais vous ne vous êtes pas rendu compte de ce qu’ils étaient.

Les extraits présentés sont des textes courts, des puces, des chiffres ou des tableaux qui apparaissent en haut de la recherche de Google.

Le but d’un extrait de code en vedette est de répondre à la requête du chercheur directement dans les SERPs sans avoir à cliquer sur le site Web.

Mais, les extraits présentés peuvent être extrêmement volatils, alors marchez légèrement.

Les extraits présentés ne sont pas nouveaux. Ils ont été repérés tout le chemin du retour en 2014.

Les extraits présentés ont donné le coup d’envoi de l’attrait de la « position zéro » convoitée. »Ce qui signifie que votre résultat de recherche est présenté au-dessus de toutes les autres distractions dans les SERPs, et que vous apparaîtrez également dans les résultats organiques.

En janvier 2020, Google a mis à jour cette fonctionnalité pour supprimer les résultats de recherche d’extraits de code en vedette afin que vous soyez inclus dans l’extrait de code en vedette ou dans le résultat organique, pas les deux.

Et, en juin 2020, Google a publié une autre mise à jour indiquant que les extraits en vedette conduiront désormais les utilisateurs directement au texte pertinent pour leur requête de recherche.

Les utilisateurs voient maintenant le texte surligné en jaune.

Au fur et à mesure que la recherche vocale continue de s’affiner, le contenu des extraits de code en vedette offrira une grande opportunité d’augmenter la visibilité organique.

Conclusion

Les moteurs de recherche et le référencement ont parcouru un long chemin depuis les années 1990.

Nous n’avons abordé que quelques-unes de ces façons dans cet article.

L’histoire du référencement a été remplie de tournants passionnants – la naissance de nouveaux moteurs de recherche, la mort des anciens moteurs de recherche, de nouvelles fonctionnalités SERP, de nouveaux algorithmes et des tests et mises à jour constants – ainsi que l’émergence de publications, de conférences, d’outils et d’experts en référencement.

Alors que les moteurs de recherche et le référencement ont beaucoup évolué au fil des ans, une chose reste vraie : tant qu’il y aura des moteurs de recherche, le référencement restera vital.

Et nous ne faisons que commencer!

Crédit Image vedette: Paulo Bobita

Leave a Reply

Votre adresse e-mail ne sera pas publiée.