LinkedIn Link to LinkedIn Twitter Link to Twitter

Le guide complet du SEO technique

Mis à jour le 09/08/2022 | Publié le 18/02/2022 | 0 commentaires

Conception de site webSEOTechnique
C’est quoi le crawl ? L’optimisation SEO technique, parfois associée au SEO on-page (ou on-site), fait partie des 3 grandes familles améliorant le référencement naturel d’un site. L’optimisation technique est probablement l’une des plus compliquée, bien que vous en ayez le contrôle total à l’inverse du SEO off-site. Il s’agit comme son nom l’indique, d’optimiser votre site « à l’intérieur » comme le SEO on-site mais en se préoccupant des aspects purement techniques.

Le référencement peut être divisé en trois catégories : le référencement on-site (ou on-page), le référencement off-page (ou off-site) et le référencement technique parfois regroupé avec le SEO on-page .

Qu'est-ce que le SEO technique ?

Le référencement technique désigne tous les efforts déployés « à l’intérieur du site web » pour améliorer son classement dans les moteurs de recherche par des aspects purement techniques.
On peut énumérer un grand panel de techniques d’optimisation techniques possibles comme :

  • Optimisation du crawl
  • Schema markup / données structurées
  • Vitesse du site & Core Web Vitals
  • Sitemap.xml / Robots.txt
  • ...

SEO technique vs SEO on-page vs SEO off-site

Le SEO on-page est une chose sur laquelle vous avez un contrôle total, alors que ce n'est pas toujours le cas pour le référencement off-page.

Quelles que soient les optimisations off-page (ou presque toutes), vous ne pouvez pas savoir si cela fonctionnera puisque vous n’en avez pas le contrôle total (sans tricher en tout cas).
À l'inverse, si vous améliorez la vitesse de votre site (SEO technique), que vous ajoutez des co-occurrences (SEO on-page) et que sais-je, c'est du référencement on-page car vous pouvez faire ce changement directement sur votre site web.

Le SEO technique est souvent intégré au SEO on-site. On peut retrouver dans cette catégorie tous les aspects techniques du SEO on-page. Pour l’exemple, l’optimisation de l’intention de recherche sera plutôt dans l’aspect non technique alors qu’intégrer des balises de données structurées (schema markup) ou encore optimiser la crawlabilité des pages sera dans l’aspect technique.

SEO on-page vs SEO off-page vs SEO technique

Quel est l’impact du SEO technique ?

Comme toutes les grandes familles d’optimisation SEO, si vous ne vous occupez pas d’une partie, il est probable qu’il vous soit impossible de vous positionner sur une requête un minimum concurrentielle.

En revanche, si le SEO technique est important, il n’est pas vraiment totalement indispensable. Le SEO technique est souvent considéré dans le monde des référenceurs comme la cerise sur le gâteau.

S’il est fortement conseillé de faire les optimisations techniques les plus simples, mieux vaut passer moins de temps sur cette partie que sur le on-site et le off-site. L’idéal étant de bien veiller à avoir un bon SEO on-site puis de saupoudrer votre site de référencement technique léger, puis pour finir faire du SEO off-site.

La partie très technique du référencement technique peut se faire en « toute fin ».

C’est quoi le crawl ?

L'optimisation du crawl est le pilier du référencement technique. Mais c'est quoi le crawl ?

Les crawlers, appelés aussi bots, robots, ou encore spider, sont des « programmes » qui parcourent le web pour trouver les nouvelles pages qui composent cet univers pour ensuite les indexer (ou non) dans Google. Ils consultent le contenu des pages et suivent les liens qui s’y trouvent pour découvrir d’autres pages. C’est de cette manière qu’ils découvrent les pages du web.

Le crawl budget

Tout site dispose d’un certain budget de crawl, ce budget est unique pour chaque nom de domaine en fonction de plusieurs critères, dont la popularité d’un site qui joue l’un des plus grands rôles. Optimiser le crawl de ses pages permet de mieux optimiser son référencement naturel. Pour cela il existe une multitude de techniques. Il peut s’agir d’ajouter des images sur un article pour mieux se faire indexer, ou d’aller jusqu’à bloquer les robots grâce aux robots.txt pour optimiser le crawl budget et/ou pour optimiser la cohérence d’un site. Le sujet est vaste.

Le sitemap.xml

Un sitemap.xml permet d’indiquer aux robots d’exploration toutes les pages qui constituent votre site web. Ainsi, vous facilitez la tâche aux robots et vous avez plus de chance qu’ils découvrent toutes vos pages et qu’ils les indexent dans Google.

Le fichier robots.txt

Le fichier texte robots.txt permet de donner des informations techniques aux robots, comme une liste d’autorisations ou d’interdictions. Lorsqu’un robot trouve votre page, la première chose qu’il fait est de consulter votre fichier robots.txt, ainsi il pourra savoir s’il est autorisé à indexer telle ou telle page.

Par exemple, si vous utilisez WordPress, ajouter « Disallow: /wp-admin/ » indique aux robots de ne pas explorer ce dossier qui contient tous les fichiers du panneau d’administration WordPress, c’est grâce à ce dossier que vous pouvez gérer votre site via le panneau d’administration, il n’y a aucune raison de laisser les robots indexer ce dossier et ces fichiers.

Vos pages sont-elles crawlées et indexées ?

Pour constater rapidement et simplement si les robots crawlent bien vos pages et si effectivement à la suite de leur crawl les indexent dans le moteur de recherche, il est possible d’aller consulter votre Google Search Console. Puis rendez-vous dans le rapport « couverture » dans la section « index » :

Google Search Console, vérifier le crawl et l'indexation des pages

Si vous avez besoin de plus d’informations, il suffit de cliquer sur l’élément qui vous intéresse pour obtenir tous les détails.

Vous pouvez également utiliser l’outil « inspection de l’URL » pour voir si un robot a bien crawlé ladite page et s’il la indexée :

Google search console, inspection des URL

Attention, une page peut être crawlée sans être indexée, en revanche elle ne peut pas être indexée sans avoir été crawlée.

Vérifier le crawl et l’indexation sans GSC

Si vous n’avez pas encore Google Search Console, installez-la. En tout cas, il est également possible de vérifier le crawl et l’indexation de ses pages avec différents outils comme celui de SemRush avec le rapport d’audit. Ou encore dans l’Audit de Ahrefs pour voir les pages qui ne peuvent pas être indexées et pourquoi. Il existe aussi des outils plus techniques dédiés comme botify, ScreamingFrog et bien d’autres.
Audit SEO technique avec Ahrefs

Les 5 principes de base du SEO technique

Pour commencer, voyons ensemble les optimisations les plus classiques, les plus simples et les plus rapides. Les parties avancées du SEO technique seront pour la fin.

1. Créer un fichier robots.txt

Pour créer votre fichier robots.txt, il suffit de créer un simple fichier texte à la racine de votre site.

Exemple : https://mon-site.fr/robots.txt (et l’écrire correctement)

Si vous utilisez WordPress, il sera automatiquement généré à l’installation, cependant vous devrez le modifier, par exemple en utilisant le plugin Yoast SEO.
Yoast SEO → Outils → Éditeur de fichier

Si vous ne voyez pas l’éditeur de fichier de Yoast, ou si vous n'utilisez pas Wordpress, vous pouvez modifier et/ou créer votre robots.txt en passant par votre FTP (probablement ici : /www/votre-site/public) à la racine de votre site.

Maintenant que vous avez créé votre robots.txt, il est temps de le compléter. Voici une liste étape par étape :

  1. Trouvez l’URL de votre sitemap, probablement : votre-nom-de-domaine/sitemap_index.xml
  2. Ajoutez ces lignes à votre robots.txt :
    Sitemap: https://lechemindevotresitemap/sitemap_index.xml
    User-agent: *
  3. Si votre site utilise WordPress, vous devez ajouter :
    Disallow: /wp-admin/
    Allow: /wp-admin/admin-ajax.php

S’il est effectivement possible d'optimiser davantage son robots.txt, le principal est d’avoir ces éléments (veillez à bien mettre le lien de votre sitemap index dans votre robots.txt). Si vous ne savez pas ce que vous faites ça viendra, il n’y a pour l’instant rien de plus à ajouter.

2. Créer un sitemap.xml

Un sitemap permettra d’optimiser vos quotas (ou budget) de crawl mais aussi pour l’indexation de vos images ou encore parce que Google voit les pages répertoriées dans un plan du site comme des suggestions canoniques.

Si vous utilisez WordPress, je vous conseille Yoast SEO. Il suffira de vous rendre dans SEO > Réglages généraux > Fonctionnalités > Plans de site XML puis de cliquer sur « Activé ».
Si vous utilisez un autre CMS ou autre, je vous conseille de vous renseigner sur la procédure pour créer un sitemap, pour cela il y a un guide détaillé pour créer un sitemap.xml.

Quoi qu’il en soit, je déconseille la création de sitemap à la main ou en utilisant des technologies telles que le générateur de sitemap . Effectivement, vous devrez à chaque fois redémarrer le processus pour chaque nouvelle création de page (il y a aussi plein d’autres facteurs qui peuvent entrer en ligne de compte). La meilleure solution est de demander à un développeur de créer une solution automatique pour votre site si aucun outil n’existe pour votre situation.

N'oubliez pas de soumettre votre sitemap index sur la Google Search Console, ainsi que sur Bing Webmaster Tools. Vous pouvez également transférer vos données de la Google Search Console vers Bing Webmaster Tools pour gagner du temps.

3. URL dupliquée et balise canonique

Éviter les URL dupliquées va faciliter le travail de Google. Vous ne devez autoriser l’accès qu’à une seule version de vos URL pour ne pas laisser les utilisateurs ou les moteurs de recherche visiter la mauvaise URL (votre URL non « préférée »).

Vous devez prendre en considération la casse et le séparateur. Par exemple, les URL suivantes chargeront le même contenu, ce qui signifie que les moteurs de recherche pourraient les indexer toutes les cinq comme cinq pages séparées.

Pour cela vous pouvez mettre en place des redirections qui renverront toujours vers la page que vous souhaitez, donc ici createur2site.fr/blog/ . Ou bien tout simplement mettre en place une balise canonique qui donne l’information à Google que cette URL est l’originale, tout en choisissant votre nom de domaine principal.

Envie d'en savoir plus ? Consultez notre guide complet sur les balises canoniques.

Choisir son nom de domaine préféré

Votre site web est accessible avec le “www” et sans le “www” devant votre nom de domaine.
Par exemple, si votre nom de domaine est monsite.fr, les internautes peuvent accéder à votre site web à la fois sur :

→ https://www.monsite.fr
→ https://monsite.fr

Ce n'est pas dérangeant en termes d’expérience utilisateur. En revanche c’est très mauvais pour les moteurs de recherche.

Google considérera que ces 2 URL sont comme 2 sites web différents.

Si vous ne choisissez pas votre domaine préféré, vous allez rencontrer des problèmes d’indexation, des problèmes de contenu dupliqué et aussi ce qu’on appelle de la cannibalisation (c’est-à-dire que votre propre contenu va entrer en compétition avec l’autre alors qu’il s’agit de la même page). Il y a également le budget crawl à prendre en compte.

Comment faire ? Cela dépend du service que vous utilisez. Si vous utilisez Kinsta par exemple il vous suffira de cliquer sur un seul bouton.

Avec ou sans www n’a aucune importance, il faut simplement choisir. La tendance est d’enlever le .www. et dans tous les cas si l’utilisateur renseigne le www il trouvera bien votre site.

Mettre en place des balises canoniques

Pour mettre en place les balises canoniques afin d’avoir qu’une seule version d’URL principale, vous devez utiliser ce code html dans votre <head> :

<link rel="canonical" href="https://createur2site.fr/blog/" />

Si vous utilisez WordPress :
Allez dans : Pages > (choisissez votre page) > Modifier
Puis retrouvez les paramètres de Yoast

Placez ici votre URL « originale », pour notre exemple : https://createur2site.fr/blog/

Les balises canoniques permettent aussi de ne pas référencer d'autres types d'URL comme : example.com/product - example.com/product?color=red
Celles-ci sont appelées URL paramétrées et constituent une cause fréquente de contenu dupliqué, en particulier sur les sites de commerce électronique avec une navigation à filtres.

4. Les signaux d’expérience de page

Google prend en compte plusieurs signaux appelés globalement « signaux d’expérience de page » pour évaluer la pertinence d’un site.

Les signaux d’expérience de page sur Google
Tous les éléments des signaux d’expérience de page se trouvent dans la Google Search Console dans l’onglet « Expérience sur la page ». Ce qui rend très facile et accessible les données si oui ou non votre site correspond à leurs critères et pourquoi.

Core Web Vitals

Les Core Web Vitals (Signaux Web Essentiels en français) sont des signaux d’expérience utilisateur corrélés avec la vitesse de chargement d’un site. Les Core Web Vitals font partie des facteurs de l’Expérience de Page Google elle-même. Ces mesures prennent en compte le chargement visuel avec Largest Contentful Paint (LCP), la stabilité visuelle avec Cumuaive Laout Shift (CLS) et le Total Blocking Time (TBT), et bien d’autres.

Dans la logique de cet article, il est plutôt assez facile et rapide d’optimiser ces métriques en installant quelques plugins si vous utilisez WordPress. On pourrait citer Wp Rocket, Perfmatters, Imagify, Kinsta. Si vous souhaitez en revanche optimiser au maximum vos CWV cela sera plus compliqué. À noter tout de même qu’il existe de nombreux articles sur notre site expliquant et détaillant comment améliorer chaque métrique. Commencez donc par ici : Améliorer ses Core Web Vitals

HTTPS

Encore une fois, https fait lui aussi partie de l’ expérience de page de Google. Il joue donc lui aussi un rôle pour optimiser votre référencement. HTTPS est une bonne pratique même si vous pensez que votre site n’en avait pas besoin puisqu’il permet d’empêcher aux pirates d’intercepter ou de modifier les communications entre un navigateur et un serveur.

Navigation sécurisée

Google vérifie que votre site ne dispose pas de malware ou tout autre problème de sécurité possible dont pourrait pâtir vos utilisateurs.

Éléments interstitiels

Un élément interstitiel est un élément caché dans un contenu ou une page. Cela peut être des pop-up qui recouvrent une page sur laquelle les utilisateurs doivent interagir et qui pourraient déranger l’utilisateur, c’est pourquoi il est intégré dans l’expérience de page.

Responsive design (mobile friendly)

Pour simplifier, le responsive est tout simplement une page qui est visuellement adaptée à tous les appareils, que ce soit entre un desktop (ordinateur), un mobile ou une tablette. Google vérifie ce paramètre et le classe comme un critère de classement dans l’expérience de page.
Pour vérifier si votre site correspond bien à ces critères, rendez-vous dans le rapport « ergonomie mobile » dans la Google Search Console.

5. Les balises Open Graph

Les balises Open Graph permettent d’afficher les informations principales d’une page pour les réseaux sociaux lorsqu’un lien renvoie vers une page web. Cela n’a aucune incidence du côté de Google mais il s’agit bien de SEO technique. Dit plus clairement, les balises Open Graph permettent à un réseau social d’afficher un titre, une description et une image lorsqu’un lien est posé sur sa plateforme.
Exemple d'une balise opengraph sur Twitter
En lignes de code cela donne quelque chose comme cela :

<html xmlns:og="http://ogp.me/ns#">
<head>
<title>Open Graph : Pourquoi utiliser les balises Open Graph ?</title>
<meta property="og:title" content="Article sur le référencement technique et les balises Open Graph" />
<meta property="og:type" content="article" />
<meta property="og:url" content="https://createur2site.fr/article/" />
<meta property="og:image" content="https://createur2site.fr/images/open-graph.jpg" />
<meta property="og:site_name" content="Agence web" />
</head>

Il est également possible d’utiliser un plugin sur WordPress : Yoast SEO par exemple s’occupe des balises OpenGraph.

5 optimisations avancées du SEO technique

Maintenant que nous avons vu la checklist classique du SEO technique, passons au SEO technique avancé. Vous devriez peut-être prendre un café juste avant !
La plupart de ces optimisations comme celle du CTR, du taux de rebond, ou des rich snippets ne sont valables que si et seulement si votre page est déjà en première page et que vous souhaitez grimper en première position de cette première page. Comme dit précédemment, le SEO technique concerne une bonne partie d’optimisation de référencement comme le serait la cerise sur un gâteau.

1. Améliorer l’indexation et la crawlabilité

Il existe énormément de possibilités pour améliorer l’indexation de ses pages ainsi que les différentes manières pour optimiser son budget de crawl. En fonction de la taille de votre site cela n’est pas forcément pertinent.

Améliorer son budget de crawl

Voici différentes méthodes pour gagner du budget de crawl :

  • Avoir un bon maillage interne
  • Avoir un site rapide (pas en termes de Core Web Vitals mais en vitesse pure)
  • Ne pas dépasser 3 clics pour pouvoir visiter une page (hors cocon sémantique)
  • Avoir un site populaire en termes de backlinks (DR, BAS élevé)
  • Être présent sur Google Discover
  • Code http d’erreur 3xx, 4xx, 5xx

Une autre méthode assez méconnue est d’utiliser des URL dynamiques pour les pages paginées plutôt que de nouvelles URL.

En d'autres termes, passez de ceci :

https://site.fr/seo-topics/page/2

à cela :

https://site.fr/seo-topics?page=2

De cette façon, Google passe moins de temps à ré-explorer les pages et passe plus de temps pour trouver et indexer de nouvelles choses.

Améliorer l’indexation

Cela peut être frustrant de voir les robots de Google explorer vos pages, sans qu’ils acceptent de les indexer. Il existe beaucoup de cas. En général Google n’indexe pas une page si pour quelque raison il la considère comme du spam. :

  • Votre page ne contient pas d’image ou pas assez
  • Le contenu de votre page est détecté comme de la duplication de contenu, interne ou externe à votre site
  • La page ne dispose pas suffisamment de texte
  • La page n’est pas populaire
  • La qualité du contenu dans son ensemble

Dans tous les cas, servez-vous de la Google Search Console pour comprendre plus précisément le problème. Vous pouvez également soumettre une page dans la GSC pour son indéxation.

2. L’analyse de log

L’analyse de log est une partie à ne pas délaisser côté SEO technique. Ainsi vous vérifiez les erreurs 404, les redirections 301, et constatez si un staging ne s’est pas indexé ou bien si un X-Robots-Tag dans l’en-tête HTTP ne s’est pas incrusté pouvant mener votre référencement naturel à la catastrophe.
Pour cela de nombreux outils d’analyse de log SEO sont à votre disposition :

  • OnCrawl.
  • Botify.
  • Screaming Frog Log File Analyzer.
  • Seolyzer.

3. Le maillage interne

Le maillage interne peut être très simple comme très complexe si vous utilisez des techniques SEO avancées telles que des silos, hub, siloing, cocon sémantique… Visualiser l’architecture de votre maillage interne permet de déterminer rapidement l’optimisation de celui-ci et de vérifier qu’ il n’existe aucune erreur. Pour cela, il est possible d’utiliser des outils tels que visiblis et cocon.se.
Visualisation d'un maillage interne (cocon sémantique)
Il est aussi tout à fait possible de créer un cocon avec l’outil cocon.se puis suivre son implémentation toujours avec cet outil.

L’obfusquation ou offuscation de lien

L’obfusquation de lien appelée aussi offuscation de lien consiste à afficher un lien pour les utilisateurs mais pas pour Google. Cette technique n’est pas du black hat puisque l’utilisateur n’est pas impacté et pas trompé.

En fait, un lien transmet du « PageRank » ou « jus », c’est-à-dire qu’un lien transmet de l’autorité vers la page liée. Ce jus n’enlève pas de votre autorité mais il en transmet une partie à la page vers laquelle vous redirigez. En d’autres termes, cela n’a aucun incidence pour la page qui transmet, mais la page qui reçoit gagne de la popularité. Je vais passer les détails avec la popularité d’un lien par rapport au rapprochement sémantique ou tout autre détail.

Le problème est que le jus se divise entre chaque lien que comporte une page. Ainsi, si votre article parle de gâteau au chocolat, que vous mettez un lien vers votre article sur le gâteau à la poire et un autre lien sur l’origine du gâteau au chocolat de Wikipédia vous divisez le jus par 2 alors que votre page de gâteau à la poire pourrait bénéficier d’une meilleure transmission d’autorité.

Ainsi, l’obfusquation permet de ne pas enlever l’expérience utilisateur tout en optimisant le référencement naturel.

Google détecte une URL grâce à « href », ainsi, un simple button peut être suffisant pour le cacher, il est également possible d’utiliser du JavaScript et d’encoder les URL en base 64 ou encore en fat32.

<button onclick="window.open('https://lien.fr/', '_blank');">ancre lien</button>

Cette technique peut aussi être utilisée pour cacher des mentions légales à Google, et tout autre lien inutile pour lui afin de sculpter votre page rank, tout en permettant aux utilisateurs d’y accéder comme si c’était un lien normal.

4. Optimisez votre site pour les algorithmes de Google

Ceci ressemble plus à un autre Tips qu’une optimisation technique on-site mais peu importe. Google dispose de différents algo comme RankBrain, Learning to rank, et bien d’autres.

Andrey Lipattsev a révélé que les liens, le contenu et RankBrain, faisaient partie des 3 signaux les plus importants dans les facteurs de classement du moteur de recherche Google.

Comment optimiser votre site pour Google RankBrain ?

RankBrain, les facteurs de classement relié à l'UX (user experience)

Vous entendrez souvent dire que l’expérience globale d’un utilisateur sur un site peut être un facteur de classement Google. Cela est vrai, à condition de comprendre correctement le pourquoi du comment.

Nous pourrions aussi énumérer l’algo du Learning To Rank, mais je vais surtout me concentrer sur ce que vous devez améliorer plutôt que d’expliquer pourquoi. Si cela vous intéresse rendez-vous dans le chapitre des algorithmes de Google.

Tout d’abord, améliorez votre CTR

Google souhaite que beaucoup de personnes cliquent sur votre site dans les résultats de recherche.
Cela indique à Google :

« Les gens adorent ce résultat. Renforçons-le en haut de la page pour qu'il soit plus facile à trouver ».
Mais si les gens ne cliquent pas sur votre résultat ? Google laissera tomber votre site comme une pierre.

Le CTR est tout simplement le nombre de clics divisé par le nombre de fois où votre page s'est affichée, appelé impressions (clics ÷ impressions = CTR). Par exemple, si vous enregistrez 5 clics pour 100 impressions, votre CTR est de 5 %.

Il serait donc astucieux d’optimiser votre titre et meta description pour attirer les utilisateurs afin qu’ils cliquent, tout en proposant un très bon contenu. On peut également noter l’ajout de rich snippet / Schema markup pour obtenir plus de pixels sur la SERP.

Et enfin, un bon titre accrocheur lorsque l’internaute arrive sur la page afin de lui donner envie de lire pleinement votre article.
Optimiser le CTR pour son référencement

Le taux de rebond

Google souhaite que ses utilisateurs soient heureux et que vous répondiez bien à l’internaute. Si le taux de rebond est une métrique de classement très controversé, voici tout de même quelques conseils.

En toute logique, si un utilisateur arrive sur votre page et part au bout de 3 secondes, peut-on dire qu’il a été satisfait ? Dans la majorité des cas, probablement pas. Mais il est également possible qu’il cherchait à répondre à sa question et qu’il ait trouvé très facilement sa réponse. Auquel cas la page a correspondu parfaitement à l’intention de recherche et cette personne est satisfaite alors qu’elle n’est restée que quelques secondes sur la page.

En fait, cette optimisation technique doit se faire dans un cadre où vous avez déjà déterminé l’intention de recherche. Si votre article par exemple doit retenir au minimum l’utilisateur pendant 10 minutes, vos utilisateurs ne doivent pas rester moins de 10 minutes sur votre page. Vous devez correspondre à une certaine moyenne par rapport à vos concurrents.

Ainsi, voici quelques optimisations qui pourraient retenir vos utilisateurs sur vos pages, à condition que vous sachiez ce que vous faites :

  • Ajouter des vidéos / Gifs
  • Images
  • Textes
  • Liens

Un contenu épique avec un site épique

Si vous produisez de superbes contenus mais sans viser de mots-clés et sans backlinks effectivement vos articles ne seront jamais ni lus ni visibles. Mais si vous respectez les critères de référencement en plus de faire de très bons contenus bien visibles pour l’œil, sans pop-up et donc pensés pour l’UX, vous grimperez au dessus de vos concurrents.

5. Rich snippets & Schema markup

Les rich snippets, ou extraits en vedette, sont des extraits d’un article ou des informations liées aux données structurées permettant de ne plus afficher un simple lien sur une SERP, en voici un exemple :

Aperçu de rich snippets sur Google

Ce que vous voyez sont des rich snippets, mais les extraits en vedette peuvent apparaître naturellement et/ou avec l’ajout de données structurées, appelées en anglais schema markup. Ou consulter notre guide complet sur les données structurées.

Rich snippets

Pour obtenir des rich snippets sans schema markup, il est possible d’inclure dans vos articles des listes à puces tout simplement, ce qui donne ensuite dans la SERP quelque chose comme cela :
Exemple de rich snippets naturel sur Google
Mais il est également possible d’obtenir d’autres rich snippets sans avoir à toucher des lignes de code de données structurées. En revanche, les possibilités sont faibles par rapport aux possibilités qu’offrent les données structurées.

Shema markup / données structurées

Les données structurées, appelées schema markup en anglais, permettent de détailler des informations additionnelles pour Google concernant votre site dans sa globalité, et aussi différents détails sur une page spécifique.

Les informations les plus courantes en données structurées sont :

  • Le nom de votre entreprise
  • Son adresse
  • Ses réseaux sociaux

Voici à quoi ressemblent des données structurées sous la forme de JSON-LD :

<head>
<title>Party Coffee Cake</title>
<script type="application/ld+json">
{
"@context": "https://schema.org/",
"@type": "Recipe",
"name": "Party Coffee Cake",
"author": {
"@type": "Person",
"name": "Mary Stone"
},
"datePublished": "2018-03-10",
"description": "This coffee cake is awesome and perfect for parties.",
"prepTime": "PT20M"
}
</script>
</head>

Il existe des milliers de données structurées différentes, que ce soit pour afficher des recettes sur les résultats de recherche, des dates d’évènements, des vidéos, des reviews, des services, des FAQ…

Il existe plusieurs méthodes pour le faire, avec du JSON-LD, en microdonnées et avec DRFa. JSON-LD est la méthode recommandée par Google.

Pour commencer, je vous conseille de vous appuyer sur le et sur .

Auteur

Stan De Jesus Oliveira
Propriétaire et fondateur de createur2site

Stan De Jesus Oliveira est le propriétaire de createur2site, il accompagne les entreprises dans leur création de site web, le Web Design et le référencement naturel SEO.

0 commentaires

Soumettre un commentaire

Votre adresse e-mail ne sera pas publiée.