fallback-image

Le référencement SEO en vidéo avec Matt Cutts

Matt Cutts, responsable de l’équipe-qualité de lutte contre le spam chez Google, répond à certaines questions de webmasters et référenceurs sur le… référencement ! Voici une compilation des vidéos permettant d’en savoir un peu plus sur le référencement.

La commande “link:” est-elle bridée volontairement pour les référenceurs ?

Selon Matt Cutts, la requête “link:” ne fournit qu’une partie des liens afin de ne pas consommer trop de ressources sur les serveurs Google et ne pas divukguer trop d’informations pour les référenceuts (et ainsi lutter contre le spam).
Cette information étant déjà accessible depuis le Google Webmaster Tools, je penche plutôt pour la deuxième raison.

Comment optimiser pour le référencement un site internet e-commerce pauvre en contenu ?

Selon Matt Cutts, le site internet doit posséder du contenu à forte valeur ajoutée, original, unique.
Je pense effectivement qu’un contenu unique (qui ne s’est pas déjà vu sur le net), comme les textes, les images, vidéos… contribuent à augmenter le nombre de liens entrants et, donc, le référencement du site internet e-commerce.

Est-ce que les extensions des URLs sont-elles utiles pour le référencement ?

Selon Matt Cutts, dans la mesure où les extensions ne perturbent pas l’utilisateur et Google, cela ne pénalise pas le référencement du site web.
Je suis personnellement assez partagé sur la question : je pense surtout que les urls sans extensons se prêtent essentiellement pour les blogs. Une information intéressante délivrée par Matt Cutts concerne en revanche le nombre de mots clés par URL, celui-ci préconisant de ne pas dépasser 5 mots clés (et donc privilégier des URLS courtes).

Comment lutter contre le spam de la part d’un référenceur concurrent ?

Selon Matt Cutts, il n’existe qu’une solution pour lutter contre le spam de la part d’un référenceur concurrent : remplir soiggneusement un spamreport (rapport de spam) détaillé.
Je ne vois malheureusement pas d’autre solution si ce n’est d’attendre une mise à jour des algorithmes de pertinence de la part de Google de façon à mettre en place des filtres se basant sur, entre autres, des anomalies statistiques (ces filtres anti-spam étant en partie bien sûr automatisés, sauf pour la fraude aux clic mais ceci est une autre histoire… ).

Les “id=” présent dans les balises de titres sont-elles pris en compte par les moteurs de recherche pour le référencement ?

Selon Matt Cutts, les éléments HTML tels que “id=”” et “class=” ne sont pas pris en compte par Googlebot pour le référencement (le robot de Google).

Pour le référencement, le contenu est-il plus important que les liens ?

Selon Matt Cutts, le contenu est tout aussi important que les liens.
Personnellement, je pense que le contenu est important pour le référencement et les liens pour le positionnement (ces deux notions étant complémentaires mais néanmoins différentes). Le contenu sert en effet pour la notoriété du site internet alors que les liens servent à travailler la popularité du site web. Notons toutefois que, pour moi, les liens sont clairement plus pondérés que le contenu (le Google Bombing en étant une illustration, en sachant également que Google a été le premier moteur de recherche à pondérer les liens).

Interdire le crawl des fichiers CSS et Javascript est-il néfaste pour le référencement ?

Selon Matt Cutts, interdire le crawl (indexation) des fichiers CSS et Javascript est fortement déconseillé pour le référencement naturel, cette méthode étant utilisé par les référenceurs spammeurs (en jouant sur les calques DHTML entre autres).

Ajouter de nombreux sauts de ligne dans le code html peut-il nuire au référencement ?

Selon Matt Cutts, les sauts de ligne sont ignorés (tant qu’ils sont utilisés à bon escient pour notamment indenter son code source).

Les pages de résultats de recherche présenteront-elles des corrections ?

SelonMatt Cutts, les algorithmes de pertinence évoluent dans ce sens, le thésaurus s’autoéduquant en fonction des actions utilisateurs.

Google privilégie t’-il le référencement des réseaux sociaux ?

Selon Matt Cutts, cette hypothèse ne serait pas à exclure dans la mesure ou c’est pertinent de le faire.

Google Analytics est-il compatible avec les sites Web 2.0 et les réseaux sociaux ?

admin

Related Posts

fallback-image

Sentimancho, le concours SEO de la rentrée 2012

fallback-image

Google Webmaster Academy, Transparency Report et Knowledge Graph

fallback-image

SEO : quel avenir pour les liens naturels ?

fallback-image

Referencement local : Google modifie ses SERP