Compte rendu SEO Campus 2011

Après quelques mois d’inactivité sur le blog, c’est l’heure de reprendre les billets sur le référencement, les bonnes pratiques web-marketing et l’évolution des moteurs de recherche. Quoi de plus logique que de recommencer la publication par un compte rendu SEO Campus 2011


J’ai donc assisté au SEO Campus cette année, les mardi 1er mars et mercredi 2 mars 2011.
Des intervenants de qualités, un cadre assez sympa (l’Usine près de Saint Denis) et une communauté représentée par des experts / débutants / référenceurs in house / auto-entrepreneurs / curieux / agences / annonceurs.

(ce compte rendu correspond aux conférences auxquelles j’ai assisté, si vous avez d’autres compte rendu de conférence ou si vous avez également publié un compte rendu global, merci de me l’indiquer dans un commentaire, je rajouterai votre lien)


Compte rendu SEO Campus -  Mardi 1 mars

=> Bilan évolution du moteur Google sur un an <=
Philippe Yonnet – Global SEO Strategist, Vivastreet

- 1 mai : mayday, baisse de trafic sur les requêtes longue traîne et sanction pour des pages avec beaucoup de similarités (comme des pages produits dont seul le titre change).

- 5 mai : modification de l’interface Google, baptisée Jazz
Dans Google Webmaster Tools, apparition des softs 404 qu’il faut traiter sinon elles risque d’etre supprimées de l’index Google.

- 8 juin : Google cafféine, optimisation de l’algorithme pour crawler plus de pages en un minimum de temps.
Le crawl se fait par lot de pages.

- septembre 2010 : lancement de Google Instant et Instant preview (image d’apercu a droite des résultats si vous passez la souris / cliquez sur la loupe).
L’utilisation des marques tiers dans les Adwords est autorisé en France.

- octobre 2010 : Google shopping lancé
Les social search sont integrées dans les serps
Les balises titres sont améliorées en fonction de la recherche internaute (ex : il se peut que votre page d’accueil soit )

- decembre 2010 : lancement Google places (Google adresses)

—> quoi en tirer :
- utilisation des marques concurrentes sur Adwords
- les annonceurs devraient de plus en plus développer de stratégie en rapport avec les réseaux sociaux


=> Du netlinking au netliking <=
Jean Pascal Thys,
Directeur pôle Formation et Innovation, Synodiance (@Jeanpascalthys)

1) obtenir des liens de qualité
2) obtenir des liens de sites à forte notoriété
3) l’achat de liens est une technique dépréciée des moteurs

—> quoi en tirer :
- la présentation de Synodiance, était très basique et nous ne sommes pas rentré dans le vif du sujet
Ci-dessous, vous trouverez le lien d’une présentation de Synodiance à laquelle j’avais assisté et qui était beaucoup plus concrète :
Quand le SEO devient social


=> Analyser les logs serveurs pour rendre son référencement plus efficace <=

Philippe Yonnet – Global SEO Strategist, Vivastreet

- le log serveur est un fichier texte généré par le serveur lors d’une requête http et qui donne des infos intéressantes (adresse ip, identité client, code de la page)
- il est possible de connaître le passage des robots des moteurs (googlebot, bingbot, Ybot)
- il est possible d’analyser les pages qui reçoivent du trafic et celle qui n’en reçoivent pas
- identifier les problèmes techniques (404, 403, 500)
- monitorer les performances côté serveur – maintenir les logs serveurs, c’est une obligation légales
- il est intéressant de récuper les valeurs : host (séparer domaine et sous domaine), referrer (visites organiques, identifier les backlinks), user agent (visites des robots)
- sites d’analyses des logs Awstats, Webanalizer, Urchin (payant) Sawmill Report Magic

—> quoi en tirer :
- l’analyse des logs est un point important et souvent sous exploité chez l’annonceur et peu mis en avant en agence. L’analyse permet de savoir si les robots des moteurs passent bien sur les pages, de connaître les pages celles qui ont rencontrées une erreur et de réparer cette erreur au plus vite.

Les erreurs peuvent être préjudiciables au site. S’il y a trop d’erreurs lors du passage du robot, il passera moins et risquera de déclasser le site.


=> Réfléchir et comprendre son référencement avec les bons KPIs <=

Emmanuel Benmussa, agence NextIdea (@manuuuuuu)
Benjamin Bussière, Directeur Projet SEO, NextIdea (@BBussiere)

Positionnement / Trafic / Transformation -> decideurs A définir en fonction des besoins.
Structure / Linking / Contenu -> referenceur

- outils Google pour le choix des expressions
- comparaison par rapport a la concurrence
- kpis intéressantes : transformation / trafic par expressions / nombre d’expressions par page
- ancienne du ndd
- export Xenu pour réaliser des Excels simples et avoir plus de données sur la navigation :
analyser les visites sur les types de pages ;
analyser par tailles de titres analyser par tailles des descriptions analyser par poids des pages analyser par liens entrants / liens sortants

Outils : analogx link examiner
Screaming frog seo spider
IIs 7 web crawler
Get crawl anywhere

—> quoi en tirer :
- un document excel et quelques macros permettent rapidement d’avoir accès à ces donnés qui influenceront votre stratégie.


=> Rich snippets <=

Olivier Andrieu, directeur du site Abondance (@abondance_com)

- contenu supplémentaires dans les resultats des moteurs de recherche (images / review / date / prix / produit en stock ou non)
- les rich snippets fonctionnent avec 3 formats : Microformat / microdonnées / rdfa Le choix se fait en fonction de l’integration technique.
Google serait en train de créer son propre code, ce qui prouve que les rich snippets sont un avenir important pour les moteurs de recherche en terme de présentation des résultats
- il faut tester le code pour savoir s’il est ok ET avertir Google lors de la mise en place (formulaire dédié)

- intérêt des rich snippets
1) meilleure visibilité dans les serps
2) sémantique apprécié par les moteurs
3) incontournable à l’avenir
4) peu de sites s’en servent. Surtout en France, (seuls Viadeo, et certains sites d’emploi)
5) Facile a mettre en place

La mise en place ne garantira cependant pas un meilleur positionnement, mais à coup sûr une bonne visibilité !

—> quoi en tirer :
Les snippets peuvent être intéressant pour les contenus suivants :
- site d’événements, de formations. L’intérêt est de faire apparaître les dates.
- site e-commerce, pour mettre en avant les photos produits ainsi que les votes et reviews.
- site d’offres d’emploi pour le lieu, le poste, le salaire

Compte rendu SEO Campus – Mercredi 2 mars 2011

=> Résumé table ronde de la veille <=

- les pages de résultats de recherche peuvent être considérées comme du spam
- écriture web : structurer son contenu avec titre / châpo / sous titre / paragraphe.
Le champ lexical doit être riche. Il ne faut pas sur-optimiser le texte avec une même occurrence répétée trop de fois. Mieux vaut choisir des synonymes pour rester dans la même thématique et augmenter le champ sémantique de l’article.

—> quoi en tirer :
- faire attention au pages de résultats de recherche. Il ne faut pas que le robot se focalise sur ces pages et délaisse des pages qui seraient potentiellement pertinentes comme des catégories.
- toujours penser à écrire pour les internautes ET après pour les moteurs (dans une logique de contenu propre)


=> SEO et réactivité par rapport aux chiffres <=
David Cohen, Responsable SEO Europe, Companeo (@seoeuro)

- il peut être intéressant de créer des filtres avancés sur Google Analytics / des profils sur les outils de mesure d’audience. Pour segmenter l’information et analyser ainsi rapidement une perte de trafic, un pic d’audience après une action effectuée.
- les positions importent peu, plus on a de mots-clés, plus le trafic augmentera par de nouveaux positionnement mots-clés.

—> quoi en tirer :

- j’ai noté un élément qui m’a paru excellent. David tenait à jour un document de timeline avec le travail effectué par site / les noms des sites / la date. Cela permet d’inscrire les actions SEO dans le temps, un peu comme un moniteur d’événement et j’ai trouvé cela très pertinent.


=> Personrank <=
Laurent Bourrelly, Consultant référencement (@laurentbourrelly)

- le personrank correspond aux actions des utilisateurs qui sont considérées comme vote de popularité (rss, bookmark)
- un brevet a été déposé par en 2009 pour définir un système de confiance envers une personne ou une action sur internet.

- le but est de donner plus de poids a l’internaute. Un internaute qui vient sur un site laisse « une odeur », une empreinte – - les informations, comme on pouvait l’imaginer, sont entre autres récupérer par la Google Toolbar

—> quoi en tirer :
- si l’on estime que le personrank est un facteur important, il serait intéressant de tracker les différents boutons pour voir s’ils sont cliqués.
Et puis, comme l’a dit Laurent, mieux vaut un lien nofollow cliqué, qu’un lien classique qui n’est pas utilisé. Les moteurs et notamment Google, savent tout cela.

En résumé, des conférences intéressantes, qui auraient méritées d’être peut-plus didactiques et plus concrètes, bien que je conçoive qu’il faille s’adapter à tout type de public, du débutant au confirmé.
Merci aux organisateurs du SEO Camp pour cette belle édition !

Et vous, qu’avez-vous pensé de ces conférences ? En avez-vous appris plus ? N’hésitez pas à donner votre avis.

Si vous avez des comptes-rendus, faites le moi savoir, je rajouterai vos liens.

Edit du jeudi 3 mars à 17h30 :
Les autres comptes rendus SEO Campus 2011 :
Retour sur le SEO Campus 2011 (Guillaume Gourlaouen)
Le SEO Campus 2011 (@MPrive)
Retour sur 2 jours de SEO Campus (Sébastien Billard)
SEO Campus 2011, retour sur la première journée et SEO Campus 2011, retour sur la deuxième journée (Synerghetic)
Conference SEO Campus : compte-rendu (Oseox)

Crédit photo : http://blog.internet-85.com

16 Réactions

  1. Fine way of telling, and pleasant post. Nice info! Thanks a lot for sharing it, that’s truly has added a lot to our knowledge about this topic. Have a more successful day. Amazing write-up, always finds something interesting.

    Thanks

  2. In summary, interesting lectures, that perhaps deserve to be more didactic and more concrete, even to think that we should adapt to any audience, from beginner to advanced.

    Thanks to the organizers of the field of SEO for this beautiful edition!

  3. En fait, ce n’est pas facile de s’adresser à un public aussi mixte. A priori, il y avait 1/3 de confirmés, 1/3 d’intermédiaires et 1/3 de débutants

  4. seo

    également publié un compte rendu global, merci de me l’indiquer dans un commentaire, je rajouterai votre lien

  5. SEO

    Merci pour ce compte rendu.

  6. Ca avait l’air intéressant, merci pour le retour.
    Quand et où sera organisé le prochain SEO Campus?

  7. Merci d’avoir assisté et commenté ma conf.
    En fait, ce n’est pas facile de s’adresser à un public aussi mixte. A priori, il y avait 1/3 de confirmés, 1/3 d’intermédiaires et 1/3 de débutants.
    Je pense que les tables rondes permettent d’aller plus dans le concret et le détail.
    Super résumé en tout cas.

  8. Merci pour ce partage car je n’ai pas eu y aller. (Dommage car ça semblait vraiment intéressant)
    Je n’ai trouvé que la présentation d’Abondance, les autres sont disponibles ou pas?

  9. @Avocat Paris 8 :
    Effectivement, vous avez raison, les données sont également disponibles dans l’outil de WebAnalytics, comme l’avait également souligné Philippe Yonnet qui a présenté cette conférence.

    Disons que c’est une mesure complémentaire, les logs donnent TOUTES les informations alors qu’une solution de webanalytics peut – si le script n’est pas chargé – ne pas donner toutes les stats réelles du site.

    Cela explique (en partie) qu’enregistrer les logs serveurs est une obligation légale pour un site car tout est tracé.

    ps : attention à l’optimisation de votre nom, pour une première ça passe ;)

  10. Merci pour le compte rendu, on remarque encore une fois que les pages de résultats de recherche peuvent être considérées comme du spam.

  11. Excellent résumé Guillaume.
    J’ai une question concernant les logs. Tu dis qu’ils permettent d’avoir plein de données. Mais la plupart des données sont disponibles dans l’outil de Web Analytics, comme par exemple les pages les plus consultées (pages qui reçoivent du traffic et celles qui ne le reçoivent pas), les valeurs: host, referrer etc. Pourquoi devrait-on analyser les logs? Les informations qu’ils contiennent sont plus précises que celles fournies par l’outil de Web Analytics ?

  12. Je n’y étais pas alors merci pour ce compte rendu rapide et concret !

  13. Content d’avoir pu échanger avec toi.

  14. Faire confiance à l’internaute, cela me paraît plutôt cohérent. Merci pour tes résumés et ta réactivité.

  15. De nouveaux axes de développement SEO en perspective avec le linkliking et le personrank.

    Merci pour ce compte-rendu !

  16. Merci pour cette article et ce résumé ! J’ai eu l’occasion de suivre un peu ce qu’il ce passait sur twitter mais pas aussi en profondeur …

Je veux réagir à cet article et donner mon avis