L'Air du Bois est une plateforme Open Source de partage collaboratif ouverte à tous les amoureux du travail du bois. (En savoir plus)

Rejoindre l'Air du Bois Se connecter

Zeloko

A l'aide ! Google ne veut plus de nous ...

Je t'aime ... moi non plus !
Je t'aime ... moi non plus !

Bonjour à tous,

Il y a des moments dans la vie où il faut savoir reconnaître ses limites. Et là, je crois que j'ai atteints les miennes sur un point technique.
Or, L'Air du Bois est avant tout un espace où la force est dans le collectif. C'est pourquoi, je fais appel à vous aujourd'hui !

Le problème

Depuis à peu près le 15 mars, Google désindexe bon nombre de pages et surtout d'images de L'Air du Bois qu'il avait lentement mais surement mis 5 ans à engranger (cf image de ci-dessus).
C'est un problème pour la visibilité du site. A peu près 30% du trafic journalier vient de ces nouveaux visiteurs qui découvrent votre travail grâce à son indexation dans Google.

Aujourd'hui cette source de trafic a diminué et je ne m'explique pas pourquoi.

A l'Aide

Je fais donc appel à ceux qui parmi vous sont plutôt calé en SEO (Search Engine Optimization) pour essayer de trouver des réponses. Qu'est que j'aurais pu faire de travers ? Qu'est-ce qu'il faudrait améliorer ? ... etc ...

Pourquoi avoir attendu 1 mois ?

En terme de SEO, tout est long et prend du temps. Ce que je pensais avoir mis en place ne semble pas porté ses fruits. Et puis ce n'est pas une information qu'on regarde tous les jours ;)
Par ailleurs, j'ai beaucoup de projets chronophages en ce moment sur mon activité.

Qu'est-ce qui est en place ?

  • Le site est enregistré sur la Search Console de Google (anciennement Webmaster Tools) depuis 2013 pour le lien en http et mars 2018 pour le lien en https
  • Le sitemap du site est envoyé à Google et inscrit dans le robot.txt. C'est en fait un sitemap d'index qui donne les liens vers les sitemaps secondaires.
  • Les sitemaps secondaires (propre à chaque rubrique) sont générés automatiquement toutes les 24h.
  • Les images et vidéos d'un contenu sont intégrés aux sitemaps. Pour les images, le lien vers l'image en 1024x1024 est considéré ici.
  • Les images envoyées par les utilisateurs sont toutes reprisent par le serveur pour les renommer avec un hash unique et mise en cache sur le serveur. (A ce jour, le serveur compte environ 77 000 images. Je ne sais pas pourquoi Google en reçoit 88 000.).
    • Exemple : 48e194bd1103ecbffd6f665533345bd7c3158875.jpg. Ca c'est pas cool pour le référencement, mais ça permet de certifier qu'il n'y a pas de doublon.
  • Les images sont redimensionnées à plusieurs tailles (pour correspondre au mieux à la taille affichée).
  • Les images sont optimisées par le serveur lors de la création de chaque taille (optimisation de la compression PNG et JPEG) grâce à pngquant, optipng et jpegoptim
  • Dans le source HTML de la page, les images principales d'une publication ont un ALT équivalant à la légende que l'utilisateur a mis sur l'image. S'il n'y a pas de légende, c'est le titre de la publication qui est pris en compte.
  • Quasiment toutes les pages de contenu intègrent les données structurées au format schema.org.
  • Le serveur compresse (GZIP) les pages html à la volée.
  • Le cache côté navigateur sur les images (jpeg uniquement), les css et les js est actif
  • Le site intègre la syntaxe OpenGraph de Facebook pour décrire les pages.
  • Le site est responsive (il s'adapte aux mobiles et tablettes)
  • Les fichier CSS et JS sont minifiés.
  • Toutes les page de listes (comme Créations) ont un chargement dynamique en fonction du défilement de l'écran. Pour que les moteurs de recherche ne soient pas perdu dans cette fausse pagination, il y a les balise <link rel="prev" ...> et <link rel="next" ...> dans le header et en bas de page. Ces balises offrant aux moteurs de recherche le lien vers la page précédente et suivante.
  • Le site est servi en HTTP/2

Votre aide ?

Alors voilà, si vous aimer L'Air du Bois et ce qu'il représente, merci de votre aide !

Questions sans réponses

Voici diverse questions pour lesquelles je veux bien vos lumières ;)

URL Canoniques

Pour les publications type créations, plans, etc ... j'ai fait en sorte que l'URL canonique soit avec seulement l'identifiant numérique du contenu. Exemple : https://www.lairdubois.fr/crea.... Ceci afin d'être certain que l'URL canonique reste invariante même si le titre de la publication est modifié.

  • Sachant que désormais Google ne considère que les URL canoniques, est-il bon d'avoir une URL canonique qui ne contient pas le titre de la page ?

Breadcrumb

  • Est-il possible que Google considère le Breadcrumb (défini dans les balises meta) même s'il n'a qu'un niveau et n'est affiché ici que par le menu latéral à gauche ?

Boris
Bricodeur du dimanche ...

PS : Si le seul terme SEO ne vous parle pas du tout, parlez-en autours de vous. Il y aura forcément un bon copain qui aura à répondre là dessus ;)

Mis à jour

On en parle ici

Zeloko a publié le sujet "A l'aide ! Google ne veut plus de nous ...".il y a 11 jours
Oliverte
 

Désolé Boris, ça me dépasse de beaucoup ces choses là...

Zeloko
 

Arf, merci Olivier d'avoir pris le temps de lire ce sujet quand même ;)

cousin06
 

Désolé je ne comprends rien à seo
Plus simple de faire des meuble lol

Niouniou
 

Désolé Boris, peu de notion pour avoir des idées constructives

Booster
 

Bonjour Boris

J aurai bien proposé mon aide mais je galère déjà à utiliser sketchup correctement donc ce n'est pas gagné pour moi ( un peu d'humour dans ce monde de brute). Le seul conseil que je pourrai te donner, c'est de faire appel à un webmaster (hélas je n'en connais pas, je suis d'une grande aide ça se voit).

En espérant que la situation s'améliore bonne journée

Zeloko
 

Plus qu'un webmaster, c'est un expert SEO qu'il faut ici.
La sous question à mon message ici est de savoir si parmi la communauté de ceux qui consultent L'Air du Bois, il y en a ;)
Et si oui, est-ce qu'ils pourraient avoir un avis éclairé sur la question.

Avec le temps, je pense être bien monté en compétences sur la question. Mais comme toute activité, il est toujours préférable de confronter les idées avec plus compétant que soi, surtout quand on se trouve bloqué ;)

Il est certain que la fonction d'expert SEO, est une activité qui fait vivre bon nombre de gens dans le domaine du Web. Quelques cliques et on se paie les conseils d'un expert.
Loin de moi l'idée de chercher à faire tout sans jamais payer l'expert qui le vaudrait bien. Je pense juste qu'en premier lieu, il faut se demander si la personne ressource n'est pas déjà là ;)

Patrice Gourguechon
 

Salut Zeloko, je ne comprends pas exactement la conséquence sur la fréquentation du site et l'accès des visiteurs occasionnels. Si tu peux avoir plus de précisions, je vais tâcher de diffuser afin d'avoir la solution ou en tout cas une aide éclairée.
Patrice

Zeloko
 

Salut Patrice,

je ne comprends pas exactement la conséquence sur la fréquentation du site et l'accès des visiteurs occasionnels.

C'est le point de découverte du site. Je ne pense pas me trompter pour dire que 90% d'entre vous on découvert L'Air du Bois en cherchant autre chose.
Le truc n'est pas de chercher absolument à avoir du trafic. C'est surtout que c'est ce trafic qui donne du sens au site. Mettre en ligne des choses aussi belles soit-elles n'a pas de sens si elles ne sont pas vues ;)

je vais tâcher de diffuser afin d'avoir la solution ou en tout cas une aide éclairée.

De mon point de vue, il n'y a pas UNE solution. Mais c'est une multitudes de petites actions à faire et de choses à éviter.

Merci pour la diffusion ;)

apadeloup
 

Bonjour Boris,

Je travaille dans le web et mon principal collaborateur est calé en SEO. On pourrait regarder si tu le souhaites mais il nous faudra sûrement quelques accès (WebMaster Tools, Analytics…). Intéressé ?

Zeloko
 

Wep, Intéressé !!

HJPY
 

Bonjour a tous. Je ne vous aiderai pas,rien que les lettres SEO pour c'est du (charabia) mon PC fait non pas ce que je veux mais comme les chiens non dressés c'est lui qui me traine. Sinon j'aurai aimé. Mais je suis certain que certains trouverons la solution
à bientôt

dragonsage

peu malheureusement pas aidez désoler, si il y a une pétition je veut bien la signer

siywebwa
 

Bonjour ami(es) boiseux

Boris je t'adresse un message de soutien, et j'active mon réseau afin d'apporter une solution à cet épineux problème. ..
Tiens nous au courant.
A chaque problème sa solution.
Rv.

Laikeen

Bonjour,
Désolé c’est complètement hors de mes compétences et je ne sais pas comment faire pour t’aider car j’ai le même problème ailleurs.
A+
Serge

cricris

c'est incroyable voici une chaine de très haute qualité, que l'on embête, alors que certaines chaines ne mérite pas d'être sur le web bonne chance mais mois en informatique je n'y connaît rien

Zeloko
 

Arf, le référencement dans les moteurs de recherche n'est pas (toujours) une affaire de qualité. Il faut juste connaitre les bons secrets ... qui changement tout le temps ...

Un site très mauvais peut être très bien classé dans un moteur de recherche s'il s'y prend bien ;)
C'est le monde merveilleux des algorithmes.

mokozore
 

hello, j'ai le droit de dire que je n'utilise plus google mais qwant... ok ça sert à rien. A part ça, en vrai, je suis prof en écolé d'ingé dans un groupe qui contient une école d'info... bref, je vais voir si je trouve des compétences et réponse à tes questions...

Zeloko
 

Oui, tient, sais tu si on peut connaître l'état de l'indexation dans Qwant ?
Merci ;)

GrandJu
 

En lisant ton article, je me suis posé la même question (je n'utilise plus google depuis longtemps).
Par contre, visiblement, on ne peut pas connaitre le niveau d'indexation sur Qwant...

Sinon pour le souci avec Google, je vais pas pouvoir faire grand chose de plus, bon courage en tout cas.

bpascal81310

Boris je prend note de ton poste est je vais regarde ce que je peut trouver .................

Zeloko
 

Merci !

Aramis

Cela veut peut-être tout simplement dire, qu'une fois de plus, google a modifié ses algorithmes, pas forcément que ton travail n'a pas porté ses fruits...

Jean Galmot
 

"Lorsque Google modifie un algorithme, le trafic dans l'une de nos filiales s'effondre à 70 % en quelques jours..." Axel Springer.

gatien

Hello Boris, je vais jeter un coup d'oeil également, même si ce type d'information est loin de la programmation que je maîtrise...
Comme dit plus haut, Google a pas changé une fois de plus ces robots?

cartapuces

Bonjour Boris, je me renseigne cette semaine avec la personne qui gère les sites du groupe pour qui je travaille.
Je ne garanti rien mais cela ne coûte rien de demander.
Bon dimanche.

FMJ
 

Il s'agit peut-être d'un changement de l'algo de ranking pour les images. Le fait que le site ne soit pas un réseau social "connu" et que pour la plupart les images n'ont pas de description (me semble-t-il) pourraient induire qu'elles ne soient plus indexées, et que Google fasse récursivement le ménage dans ces anciens indexes ?
Un bon résumé sur le sujet : https://searchengineland.com/9...

Zeloko
 

Il s'agit peut-être d'un changement de l'algo de ranking pour les images.

C'est fort probable. Mais je manque d'outils pour savoir quelles sont les images qu'il aurait gardé ;(

Ce que je sais et qui peut expliquer une partie du truc, c'est que les deux premières années du site, les images étaient en 800x700 (pour les plus grandes). Et qu'en suite, j'ai remonté la résolution à 1024x1024. Y a donc 3 ans que les liens vers les images 800x700 ne fonctionnent plus. Mais en même temps y a 3 ans, y avait aussi beaucoup moins d'images sur LADB. Je présume qu'une bonne partie des images indexée étaient donc déjà en 1024x1024

Sinon, pour info : dans les publications, les images n'ayant pas de légende ont un ALT qui correspond au titre de la création.

Zeloko
 

Salut à tous,
Merci à tous ceux qui s'efforcent de me donner des compléments de réponses.
Pour aider chacun, j'ai ajouté plus haut dans ce sujet une liste de Qu'est-ce qui est en place ?.

En espérant que ça pourra apporter d'autres pistes de recherches.

Aurélien 34
 

Ce qui compte le plus pour google, ce ne sont pas les sitemaps, mais le fait que les pages soient accessibles par liens directs ou indirects depuis la page principale du site.
Peut-être un problème avec le chargement dynamique des pages?

Zeloko
 

Oui, les sitemaps c'est surtout pour lui faire découvrir ce qui n'est pas (ou plus) accessible par la page d'accueil.
Tous les contenus sont accessibles par liens directs ici. Pour ce qui est de les rendre accessibles par la page d'accueil, ça me semble difficile de toutes façon, il y en a bien trop.

Aurélien 34
 

@zeloko je voulais dire accessibles indirectement via la page d'accueil.
Je n'ai vu le site que sur mobile(!) et le chargement des pages y est progressif. Un moteur de recherche ne peut pas suivre ces liens a priori.
Mais je n'ai pas vu la version PC, ni le code des pages, alors je ne suis sûr de rien ;-)

Zeloko
 

En fait, il y a deux balises exprès dans les pages de liste pour que les moteur suivent la pagination.

dans les metas, il y a <link rel="prev" ... > et <link rel="next" ... >

Et cela sur mobile ou ordi.

Aurélien 34
 

J'ajoute que tu peux vérifier les pages et images indexés mar Google en cherchant sur Google: "site:www.lairdubois.fr"

Zeloko
 

Wep, sinon, il y a aussi

info:https://www.lairdubois.fr/creations/6412.html

Pour avoir le résultat d'une seule page.

Dalida

Bonjour,

Ce serait pas la conséquence du passage à l'indexation mobile-first ?
Si la version mobile était moins bien référencée, ça pourrait coller avec ce que tu constate.

Google l'a annoncé il y a peu : https://webmasters.googleblog....

Bon courage...

Zeloko
 

Je pense que l'adaptation modile de LADB n'est pas parfaite, mais elle doit remplir une bonne partie des critère quand même.

C'est peut-être sur le temps de chargement des pages que ça pèche ...

Dalida

Et le problème dans tout ça, c'est que tu ne pas savoir si tu cherches dans la bonne direction puisque Google est encore plus muet que l'armée française et que pour faire des essais, il faut attendre des semaines pour en voir les effets.

:(

Dalida

Et on est bien d'accord que la version mobile c'est entièrement géré par le responsive design du template ?
i.e. : pas de test côté serveur pour servir des contenus différents en fonction du device de l'utilisateur

Dalida

On en parle évidemment sur Webrank, et je ne trouve pas ça très rassurant...
https://www.webrankinfo.com/fo...

Dalida

La vitesse ne semble pas si mauvaise :
https://developers.google.com/...

Zeloko
 

Et on est bien d'accord que la version mobile c'est entièrement géré par le responsive design du template ?

Oui

sylvainlefrancomtois
 

je passe !!! mais je vais suivre ! bon courage à ceux qui savent !

Emilien
 

Tu n'aurais pas du JS qui se déclenche en cliquant sur les liens ? Je n'ai pas regardé la source mais il y a un comportement non standard ici lorsque j'ouvre un lien vers un nouvel onglet, je suis redirigé de force vers le nouvel onglet. Peut-être que Google considère que c'est à proscrire et blackliste ?

Zeloko
 

Le comportement que tu vois, c'est parce que j'ai voulu que toute la case soit cliquable, mais que pour autant, le nom de l'auteur aussi (et avec un autre lien). Or, il est dans la case. La case ne pouvait donc pas être un lien. Seule l'image est un lien.

C'est comme ça depuis le début, alors je me dis qu'à moins qu'il ait changé leur politique, ça n'aurait jamais référencé.

mestachs

Essaye les actions proposées par : https://www.woorank.com/en/www...
et les 15 premiers jours à l'essai.

Zeloko
 

Merci, pas mal d'actions/correction que j'ai pu faire des dernières années sont issues des infos données par ce type d'analyseur.

pixluser

Les images les mieux indexées pour mes clients, sont celle qui ont bien les mots clés dans le nom du fichier directement, mais dans le cas d'url avec uniquement chiffres, je remplis le TITLE et l'ALT absolument. En reprenant un mot clés commun aux deux balises, mais en les complétant entre l'une et l'autre.

Mais je ne suis pas sûr que cela vienne de ça bien sûr je pense que c'est encore autre chose. Mais voilà comment je fais pour bien ressortir.

Quel moteur/template utilises-tu ?

Zeloko
 

Aucun moteur. Le site est fondé sur le framework PHP Symfony, mais sinon pour le reste, c'est bibi qui a écrit le code.
Le rendu des pages est écrit en Twig.

pixluser

bien joué! beau travail!

pixluser

Sinon j'ai trouvé ceci aussi sur le net :

Préciser la licence de vos images
Depuis plusieurs années, Google Images permet de rechercher des images selon le droit d’usage qui y est attaché (Réutilisation autorisée, Réutilisation autorisée sans but commercial, etc.).

Si vos images offrent de telles possibilités, elles ont probablement été placées sous une licence Creative Commons ou GNU Free Documentation License. Pour l’indiquer, Google incite à procéder en utilisant la notation RDFa3.

Exemple pour la licence CC BY-SA :

<div about="image.png">
<img src="image.png" alt="Texte alternatif">
<a rel="license" href="https://creativecommons.org/li... CC BY-SA</a>
</div>

A tenter aussi de les intégrer dans une balise figure aussi…

Zeloko
 

A tenter en effet ;)

pixluser

As-tu pensé aux écran haute résolution (rétina), une version plus large de base serait un plus aussi sur ses écrans. (sinon ça s'affiche un peu flou, plus qu'en 72dpi).

Je pense que google préfère le grosses images en haute qualité pour mieux servir ce genre d'écran haute résolution…

Si tu as des copies hautes résolution de ces images… n'hésite pas à les servir… je pense qu'au plus large (zoom) quelque chose comme 2000px et + serait pas mal… et environ 1500px pour les les non zoomées. (il faudrais faire les calculs en x2 x4 pour trouver les bonnes résolution en fonction de l'espace de tes images affichées)

Zeloko
 

Arf, non, au départ, je l'ai joué prudent pour préserver l'espace disque. Les images uploadées par les utilisateurs sont toutes redimensionnées au max en 1024x1024 pour être conservées en ressource sources.

Arcantar
 

Salut,

Google à annoncer qu’il "favoriserait" les sites ayant une version canonique au format AMP , peut-être voir de ce côté-là ?

Sinon, j’ai regardé ton source, il particulièrement propre ! bravo :-)
juste une remarque qui génère quelques erreurs dans les moteurs d’indexation en général (surtout Bing ) c’est l’utilisation de la meta charset="UTF-8" dans le head et l’utilisation du charset="iso-8859-1" dans la balise alt d’une image.
Mais ceci n’a probablement rien à voir avec la dernière mise à jour de la logique métier de google qui désindexerait juste des images.

Cordialement,
Norbert

Zeloko
 

Google à annoncer qu’il "favoriserait" les sites ayant une version canonique au format AMP , peut-être voir de ce côté-là ?

Arf, ça m'a semblé très contraignant l'AMP (enfin de ce que j'en ai vu ...). Et ça oblige de développer deux versions du site ;(

Sinon, j’ai regardé ton source, il particulièrement propre ! bravo :-)

Merci !!

[...] c’est l’utilisation de la meta charset="UTF-8" dans le head et l’utilisation du charset="iso-8859-1"

Arg, tu peux être plus précis, je suis pas certain de voir ce que tu veux dire ?

Arcantar
 

@zeloko

l'entête de page (<head>..</head>) déclare le document html en UTF8 via le meta <meta charset="UTF-8" />
dans ton meta description tu utilise bien du UTF8 exemple <meta name="description" content="Bonjour à tous,
Il y a des moments dans la vie où il faut savoir reconnaître ses limites. Et là, je crois que j & #039 ; ai...... "
alors que sur tes alt et title non par exemple "<img src="....jpg" alt="Aurélien 34" ..." ou "<i .. title="Zeloko travaille dans les métiers du bois" >"

Cordialement,
Norbert

Dalida

@arcantar : je pense qu'il y a une petite confusion.
Les pages sont bien servies et encodées en UTF8.
Les caractères remplacés par des séquences encadrés par des "&" et des des ";" sont des entités HTML.

Zeloko
 

@arcantar a mes yeux, le haut et le bas ne présentent pas de différence, si ?
Dans les deux cas, les accents ne sont pas encodés en HTML mais en UTF-8 (parce que mon fichier est en UTF-8). L'apostrophe, si, mais afin qu'elle ne soit pas en conflit avec le caractère délimiteur de chaîne du HTML.

Arcantar
 

@dalida exact mais :-) pour les moteurs d'indexation comme bingbot, ggl , mauibot, semrush, ... il reste préférable d'utiliser la conversion.

@Zeloko heu ben si :-) si tu déclare ton document en UTF8 les accents posent problème au moteur d'indexation en général, si tu déclare ton document en charset=iso-8859-1 les commentaires, titre et autre sont correctement lu par ceux ci.
mais ce n'est certainement pas la cause à ton problème actuel juste une idée :-)

Zeloko
 

@arcantar ben c'est là que je ne te suis pas. Les accents en UTF-8, ça existe. Les séquences &#XXX;, c'est différent de l'encode du fichier. Puisque c'est fait pour être compatible avec l'ASCII.
Ce que je voulais dire plus haut, c'est que dans les deux phrases que tu as indiqué, il y a des accents.

cricris

et ben bonne chance je ne comprend rien a tous ces commentaires c du chinois pour moi

Dalida

@arcantar : pas la peine de débattre la dessus mais je crois vraiment que tu es sur la mauvaise piste.
Les entités n'ont rien à voir avec l'encodage même si elles permettent parfois de palier au problèmes d'affichage des caractères accentués pour des BDD,fichiers ou connexions mal encodés.
Et que ce soit de l'ISO8859 ou de l'UTF8 ça ne change rien tant que tu n'as pas besoin de caractères étrangers.
De mémoire les 126 ou 127 premiers caractères sont identiques. Pour le reste UTF8 est multibyte et pas ISO ce qui lui permet d'encoder tous les caractères de la planète alors que l'ISO ne contient que les caractères latins.
C'est pour ça qu'UTF8 est devenu le standard depuis au moins 2010.

Et pour les moteurs, la spec des entités HTML est plus vieille que HTML, ce qui nous fait remonter au siècle précédent... tu crois vraiment qu'en 20 ans ils n'ont pas trouvé le moyen de les ingurgiter ?
;)

Arcantar
 

@dalida tu as certainement et entièrement raison Dalida.
c'est exact, l'unicode est parti de l'ascii( non étendu bien sur) donc les 127 premier sont bel et bien identique. concernant la famille des iso8859 de 1 à 15 ( le 8 étant utilisé pour la comparaison sans Diacritics et pour l'hébreu moderne ) ils sont codé sur 1 octet ( soit 8 bits), 1 à 4 ( 1 octet -> 127 puis 2 à 4 pour le million restant) pour l'UTF8 et si on parle bien d'un problème de référencement, le poids d'une page ainsi que son codage fait partie des critères des dits moteurs non ? :-)

20 ans ? ok merci de me rappeler que j'ai commencé par coder des BBS (l'idée qui a généré le minitel en France ;-) ) et suppose , qu'en 20 ans, ces américain's ont réussi à lire l'accentué ;-)

Zeloko
 

@arcantar même si l'utf-8 va gonfler le poids de la page, je pense que son universalité est meilleure à prendre quand même? Non ?
Rien n'empêche ainsi d'écrire en non latin. Et j'en ai déjà vu passer.

Arcantar
 

@zeloko absolument.

Aurélien 34
 

Est-ce que les chiffres diminuent toujours?

Zeloko
 

Ca n'a plus bougé depuis le 15/04 ;)

PhilippeCichon

Salut à tous

Restes calme Ce n'est qu'une analyse sur 1 mois pour être sur il faut voir sur au moins 3 mois! et ça peut remonter après...ça serait grave si tu vendais quelque chose mais perdre quelques visites provisoirement n'a pas de conséquences graves. Le site reste relativement bien référencé.

Il y a quelquechose qui semble ne pas plaire à google mais quoi?
ton site est paticulairement propre
passé en https
pas de lien douteux sur les images
pas de liens exclus ni douteux

personnellement j'utilise W3C:
https://validator.w3.org/check...
pour analyser individuellement chaque url du sitemap et des autres url que google retient.

le seul problème que révèle son analyse ce sont des liens exclus par le robot txt!
Ce qui ne devrait pas faire autant reculer le référencement.

évidemment pour aller plus loin il faudra donner un accès sur google webmaster ou google search à la personne qui se propose pour de l'aide.

Zeloko
 

le seul problème que révèle son analyse ce sont des liens exclus par le robot txt!

Naïvement, j'avais ajouté en blocage dans le robot.txt tout ce qui n'avait pas de sens à être indexé. Mais je sais pas à quel point c'est pénalisant.

PhilippeCichon

J'avoue que ne comprends pas non plus puisque le fichier robot txt est justement fait pour ça et permet à google de faire l'économie de parcourir des url pour rien.
Personnellement après avoir tout nettoyé sur un de mes blogs j'ai la situation suivante :
perte de 17% de visites journalières et en même temps augmentation de 20% de la part des visites par les moteurs de recherche de google...incompréhensible!
sur un autre où je n'ais pas fais le nettoyage:
pertes de 30% de visites et augmentation de 10% de la part des visites par les moteurs de Google on comprends bien l'objectif!
Wait en see...

Zeloko
 

Que veux-tu dire par nettoyer ?

PhilippeCichon

W3C te liste les liens qui posent des problèmes. le webmaster du site peut alors rechercher où il est dans l'url et ensuite le supprimer ou encore le remplacer par un autre plus approprié.
C'est long et chiant mais indispensable pour se mmaintenir dans le top 10 des recherches du moteur Google. C'est indispensable pour un site de vente en ligne mais très secondaire pour nous les associations personnellement je prends ça comme du sport cérébrale en lieu et place d'une partie de sudoku. Faut être très, très motivé...
Les sociétes de référencement qui font la maintenance payante de sites professionnels ont des contrats qui les obligent à payer de la pub à google quand l'objectif de placement type première ou deuxiéme page garantie n'est pas atteint...
de quoi se faire des couilles en or en ce moment!

alexb38

Salut,

et d'abord bravo. Bravo d'avoir déjà mis en place une telle stratégie (et suivi !) SEO pour un site opensource et réellement collaboratif ! C'est un très beau projet et je crois qu'une de ses forces (au delà de la communauté qui le constitue) c'est que tu mettes directement les mains dans le code !

testé l'outil Pagespeedqui ne donne pas d'infos particulière

Google propose la recherche par image, celà permet de voir si elles sont bien indexées et les pages rattachées. J'ai fait quelques tests avec les dernières créations qui semblent bien indexées....
voir 1, voir 2, voir 3

Je remarque que

  • google indexe bien les nouvelles images ajoutées
  • l'indexation est de qualité, il y a du contexte et il sait de quoi il parle avec article wikipedia proposé sur la côté dans les deux derniers cas. Selon moi, il y a beaucoup de sites qui font bien moins bien...
  • toutes les tailles que tu génères ne semblent pas connues (pourquoi ?)
  • à toi de vérifier qu'il indexe bien toutes les pages qui contiennent ces images (je ne connais pas assez le site)

Je propose :

  • extraire la liste des images indexées depuis la console
  • la comparer avec la liste du xml sitemap
  • en déduire les images qui ont été désindexées
  • tenter de comprendre ce qu'elles ont en commun... ça devrait nous mettre sur la voie
Zeloko
 

Salut @alexb38, merci pour ces retours !

extraire la liste des images indexées depuis la console

Wep, mais comment faire ça ?

toutes les tailles que tu génères ne semblent pas connues (pourquoi ?)

Que veux-tu dire par là ?

alexb38
  • dans la searche console, "essayer la nouvelle search console" / couverture de l'index, tu peux télécharger ensuite les données en csv

  • dans ton premier post tu dis [cite] Pour les images, le lien vers l'image en 1024x1024 est considéré ici [/cite] mais pour cette image, la taille 1024 n'est pas indexée

Zeloko
 

la taille 1024 n'est pas indexée

@alexb38, oui, la taille en 1024 n'est jamais directement affichée sur la page. C'est uniquement dans le lien de vue en plein écran ou dans les sitemaps. Du coup, je ne sais pas trop comment la faire connaitre autrement au moteur de recherche ...

PhilippeCichon

Re
Et ce n'est pas fini google annonce encore d'autres contraintes avec le RGPD:
https://support.google.com/ana...
https://www.blog.google/topics...

Sacha
 

Par rapport à perte d indexation, m'a première sujétion et de chercher du côté du passage en HTTPS que semble correspondre au niveau de la date. Il faut savoir que le passage en HTTPS correspond à créer un nouveau site pour Google. Donc à faire : redirection de toutes les urls de http vers HTTPS. Recréer le site dans Google search console, analytics, les sitemaps sont à servir en HTTPS... Les indexation perdues en http sont peut-être reprise sur le site HTTPS mais que tu ne les vois pas dans analytics car ne reprend pas le site HTTPS...

Zeloko
 

Je me suis peut-être mal exprimé. Le https est actif depuis juin 2016. Ce que j'ai fait depuis mars 2018, c'est de configurer la search console avec (en plus) le lien https du site.

Connectez-vous pour ajouter un commentaire.
1 664 vues
80 commentaires
Table des matières