Voici un reporting des conférences du SEOCAMPUS 2013 auxquelles j'ai assistées. Ce n’est pas un résumé exhaustif, car je n'ai pas pris en note toute les conférences, mais si ça résume quand même l’esprit de ces deux jours à l’usine, la salle qui accueille régulièrement l’évènement à Saint-Denis.
J'ai démarré la journée avec la conférence "parlons de Qwant pour changer".
Eric Léandri, a présenté son moteur de recherche en long, en large et en travers avec beaucoup de conviction. L'outil est clairement en développement et en cours d'amélioration, Léandri le souligne volontiers. D'ailleurs, les suggestions d'améliorations de la part de tous sont vivement encouragées par le boss pour améliorer Qwant. Eric Léandri a également évoqué les développements de son entreprise, ses actionnaires et partenaires dans le monde et en Europe. Sur la philosophie générale du moteur, Léandri a expliqué acheter certaines fonctionnalités aux américains.
Selon lui, Qwant déclare être en passe de pouvoir s'aligner sur les stats de visites de BING en France, ou n'en est plus très loin.
Je n'ai pas pu noter, en live, toutes les subtilités techniques de Qwant (Léandri a évoqué le nom du robot Qwant, n'hésitez pas si vous avez des infos) mais j’ai tout de même noté que Qwant fera la part belle aux sites html5, qu'il gère divers standards comme sitemap.org, que son algorithme de classement porte le doux nom de Yourank, qu'il tient compte de paramètres comme les keywords, bien sûr, mais aussi des URL, du balisages, des longueurs des titres, de la distance linguistique (proximité entre 2 mots comme poney et cheval)…
Qwant se veut être le moteur de recherche dans le social, le shopping, le web, bref, un moteur de découverte. D'autres informations ont été données sur la sémantique, l'indexation, ainsi que la géolocalisation : "par exemple, si je saisi le nom de mon village, je risque d'avoir beaucoup plus d'infos pertinentes dans Qwant, que dans Google".
Qwant se veut être le moteur de recherche dans le social, le shopping, le web, bref, un moteur de découverte.
Vous aimez Googleliser ? hé bien Qwantisez maintenant !
L'ambition d'Eric Léandri n'est pas de refaire Google, c'est impossible et cela ne sert à rien – "on n’a pas envie de faire du Google en moins bien". L'interface de Qwant n'est "pas très sobre", lui fait-on remarquer dans la salle. Et alors ? "on a fait des tests là-dessus, auprès d’un panel d’utilisateur, pour décider de cette interface"…
Conférence : le netlinking, c'est pas pour les Pingouins, de Sébastien Monnier.
Sébastien Monnier est revenu sur ce qu'est Penguin, un filtre capable par exemple, de noter la suroptimisation d'ancres de liens trop semblables. Selon lui, ce sont des dizaines de millions d’URL qui ont été vérifiées par Penguin. Très au fait des interventions manuelles pour avoir travaillé dans la Search Quality Team chez Google, Sébastien Monnier revient assez souvent sur le sujet lors de sa conférence.
Sebastien a aussi passé en revue les techniques traditionnelles de création de lien. Selon lui, on oublie trop souvent l'essentiel et le naturel, et on se focalise trop sur le PR ou le Trust Rank. On oublie qu'un lien doit tout simplement avoir une légitimité d'existence. Et au passage, plus on pense naturel, plus le réflexe est White Hat.
La Search Quality Team veille au grain, surveille les ancres, vérifie "si le webmaster est un voyou" et "si son site est voyou", si le lien analysé a une légitimité, si il a l'air naturel, si il a une raison d'être, en pointant sur un document comme une étude par exemple.
Dans un second temps, on va pouvoir se préoccuper des critères de qualité des liens.
Conférence sur la présentation de l'outil de désaveu par Sébastien Bulté.
La conférence s'est intitulée "un lien vaut mieux que deux tu l’auras".
Pour sa présentation de l'outil de désaveu de Baclinks de Google, Sébastien Bulté a débuté par un historique de la chasse aux spams, depuis l'annonce de la conception de l'outil de désaveu, en passant par la période ou Google envoyait de nombreux messages au sujet des liens factices, jusqu'à plus récemment, avec la sortie de la nouvelle version de Penguin. La communication de Google s'est intensifiée avec plusieurs centaines de milliers de messages (500000 ?) envoyés par Google aux webmasters. Parmi ceux-ci, 3% portaient sur les liens factices.
Bref, passons à l'outil de désaveu de Baclinks de Google : simple…dangereux !!
Il permet de désavouer de liens en utilisant différents paramètres pour désavouer tous les liens depuis un domaine, tous les liens sur une seule page, etc. L'utilisation du # permet les commentaires, et la taille maximum du fichier envoyé ne doit pas excéder 2Mo.
A noter qu'après après avoir utilisé l'outil de désaveu (lorsque Google envoie un message du type "on a trouvé des liens factices sur votre site"), il vaut mieux demander un réexamen.
Voir sa présentation SlideShare
Conférence "Auditer son netlinking de Dixon Jones
Dans sa conférence "auditer son netlinking", Dixon Jones, en anglais, évoque les modes d'utilisations de Majestic SEO, son index, le calcul du Trustflow, et conclut, en réponse à une question, par "on ne copie pas Google, on veut faire quelque chose de nouveau"…Je n'ai pas plus d'infos – difficile de traduire, écouter, noter !
Conférence "Les indicateurs de visibilité" par Antoine Leven.
Antoine Leven, brillamment, a expliqué les bénéfices de l'analyse de log :
* cela permet de savoir que Google crawle une zone bien spécifique du site
* cela permet de savoir que Google crawle des pages qui n'ont pas d'intérêt
* cela permet de se mettre à la place du moteur et de comprendre son mode de fonctionnement
* cela permet de calculer les duplicate
* cela permet de déterminer les pages crawlées plusieurs fois, ou une seule fois, dans une même fenêtre de temps.
L'analyse des logs va permettre d'optimiser ses temps de réponse pour optimiser le crawl. On sait, par exemple, que le temps moyen de chargement d'une page est 500ms.
Elle va également permettre de s'assurer qu'une catégorie de page, celle qui génère le plus de roi, reçoit le plus de liens internes. On peut aussi avoir un œil sur la maîtrise de dilution du PR vers les bonnes pages ou vers d'autres pages…et sculpter ainsi son PR.
La mesure des logs permet de comprendre que (exemple), seules 38% des pages sont crawlées (sur une fenêtre de 30 jours), ou que 81% des pages (exemple), ne génèrent pas de visites…ou que certaines pages ne sont plus attachées à la structure du site.
Il est possible de déterminer les pages crawlées qui ne génèrent jamais de visites SEO, de découvrir les nouvelles pages crawlées par Google pour la première fois, involontairement ou volontairement Enfin l'analyse des logs permet de repérer les pages retournant un mauvais codes http, mesurer et de mettre en parallèle le netlinking interne et visibilité ou trafic
Conférence de Jean-Benoît Moingt "Analyseur de log, crawler de site : comment produire des indicateurs avancés pour son SEO"
J’avais loupé le début, mais voici ce que je j’ai noté…
Les possibilités d'analyse de log sont infinies :
* connaître le taux d’unicité des balises h1 ou title
* connaitre le volume de PR par catégorie
* connaître les temps de réponse du serveur
* connaître et récupérer des mots clés
* monitorer les chutes d´audience
* connaître les pages crawlées inutiles – et dans ce cas, l'action réparatrice peut être l'obfusquation des liens, ce qui aura pour conséquence d'optimiser le crawl
* analyse ses logs pour connaître-identifier les erreurs 500
À la suite d'un nombre important de pages publiées, l'analyse des logs indique si il y a des répercutions dans les résultats de crawls. En conclusion, analyser ses logs, en conclusion, c'est riche
D'autres idées d'analyse des logs :
* pour mesurer les périodes de rétention (période avant l'indexation)
* pour connaître les pages orphelines
* pour connaître le crawl en fonction du niveau de profondeur. Par exemple, 99% pour le niveau 1, 66% pour le niveau 2, jusqu'aux niveaux encore plus éloignés, comme le niveau de profondeur 4, qui n'a aucune chance de générer du trafic SEO
* pour connaître le temps de crawl consacré aux nouvelles pages. Par exemple, 15% consacré à une nouvelle page, alors que 35% est consacré à des pages anciennes. Jean-Benoît Moingt note aussi que Google Analytics différentie visites et visiteurs, ce qui n'est pas le cas des LOGS.
Conférence Google news Renaud Perrin
J’étais personnellement très intéressé par cette conférence de Renaud Perrin, car j'avais, l'an dernier, patienté longtemps avant de pouvoir faire entrer un site média dans le flux d'actualité de Google. Ce qui m'intéressait le plus était l'optimisation de positionnement dans Google news. Finalement, Renaud Perrin est resté assez discret sur ce point.
Il a évoqué l'importance du sitemap news, de la structure du site, de la facilité à crawler le site, de l'importance du chapo, de la date de publication, de la balise rel author, des images et illustrations, et vidéos, de l'optimisation de la partie éditoriale, des heures et du rythme de publication, de la balise keyword. Renaud Perrin a aussi évoqué l'interface GWT qui affiche des messages types sur le crawl du bot Google news.
Vois sa présentation SlideShare
Conférence d'Olivier Andrieux sur l'indexation et sur la désindexation
Calme et organisé comme à son habitude, le pape (du référencement), nouvellement élu au titre de meilleur SEO de France a expliqué pourquoi et comment désindexer, et surtout comment le faire correctement.
J'ai retenu que désindexer, finalement, permet d'optimiser son taux de rebond, car l'internaute à plus de chance d'atterrir sur une page « de qualité », qu'on peut décider de désindexer certains PDF à l'avantage des pages HTML afin que l'internaute entre "vraiment" dans la boutique, ou bien qu'on peut décider de désindexer certains PDF s’il s'agit d'un doublon d'une page HTML.
On peut décider de désindexer à cause de problèmes de droit, pour interdire l'accès à des robots exotiques, parce que la page est dupliquée, même s'il est plus logique d'utiliser une balise canonical que de désindexer une page dupliquée.
Olivier Andrieu a enfin passé en revue différentes méthodes de désindexation, en soulignant à juste titre qu'un Robots.txt n'interdit que le crawl et que la désindexation passe par l'utilisation de balises comme les balises No index follow, no index nofollow, X-Robots tag (no archive == pas de mise en cashe) en rappelant l'importance de GWT pour suivre l'état de l'indexation.
Voir sa présentation Slideshare
Suite à la conférence d'Olivier Andrieu, j'ai aussi en parti assisté à celle de Kiril Terziev qui concernait le retargeting.
Il a donc passé en revue différents processus de RTB associés au retargeting.
Ainsi, Kiril Terziev a parlé retargeting via email, retargeting Google via le display network de Google (84% de reach, un chiffre à confirmer, si quelqu'un l'a noté).
Le retargeting Google devient un jeu d'enfant puisque la firme vient de sortir un tag unique de remarketing pour créer ses listes.
Pourquoi utiliser ce type de retargeting ? …aider le consommateur indécis à passer à l'action, trouver des clients dans une région spécifique, faire revenir les consommateurs sur le point d'effectuer un achat…gagner la considération de vos clients les plus fidèles…
Kiril Terziev s'est aussi arrêté sur le retargeting dans Facebook …un internaute se connecte à un site de chaussures sans acheter ; il se connecte ensuite à Facebook ; on en profite pour lui proposer alors une annonce avec un lien directement vers la page d'achat.
Le vendredi matin j'ai poursuivi avec la conférence : développer son trafic avec Facebook de Antoine Gounel
Je n'ai pas pris en note toute la conférence ;)), mais j'ai noté qu’Antoine Gounel a mis en parallèle à plusieurs reprises, Social média et SEO.
Entre autres choses, Antoine Gounel a évoqué les nombreux avantages à utiliser Facebook connect (pour convertir par exemple, les fans en données social CRM, les extended permissions ("pour chacune il y a un business modèle à inventer derrière"), et la « possibilité de proposer des données qui ont du sens pour l'utilisateur ». Ainsi Facebook connect permet de ne proposer à l'utilisateur, que des produits qui l'intéressent vraiment (Exemple avec les 1500 000 produits Findizer), une sorte de ciblage social sur mesure.
Le CEO d’Opengraphy a aussi parlé des différentes actions paramétrables Facebook destinées à viraliser et à créer des interactions entre l’internaute et ses fans. A ce sujet, Cuisineaz.com en est un très bon exemple d’utilisation. Mais un cas très concret est le Parc Walibi, ou chaque visiteur dans le parc se voit remettre un bracelet qui permettra (je schématise) des publications sur Facebook « j'ai essayé ce manège, je veux l'essayer, j'adore, etc » … une APP mobile a aussi été conçue pour voir son parcours personnel dans le parc.
Conférence d’Emmanuel Bensmussa : « Stores et référencement des applications, quelle influence sur le trafic organique ? »
Voici un petit résumé non exhaustif, vu le débit de parole d’Emmanuel 🙂
Emmanuel a développé différents sujets comme la recherche d´APP dans Google Play et dans iTunes (suggest, topranking), passé en revue les critères de ranking des APPs. Ainsi, si le premier critère de ranking est bien le nombre de téléchargements, il existe un critère moins connu qui prend de l´importance : le nombre de suppression d’APP.
Le boss de Performics, parmi d’autres sujets a évoqué iTunes connect (le pendant Apple de GWT) qui permet de piloter au quotidien et booster au bon moment ses propres APPs pour en optimiser la visibilité. A noter que les informations sont d’ailleurs plus nombreuses dans Google Play que dans iTunes connect, avec des statistiques comme l’évolution des téléchargements, etc
Au passage j’ai noté le nom d’un outil d’analyse de trafic d’APPs – Localytics
Conférence de Didier Vassout : « Responsive design : solution ultime ?»
Didier Vassout a passé en revue les différents modes de design et les bonnes pratiques de Responsive Design, souligné que lors de la phase de réflexion, il était important de se concentrer sur l'expérience utilisateur et sur « l’ambiance ». Didier Vassout a aussi passé en revue certains points techniques, comme l’utilisation de grilles. Il a aussi rappelé qu’il fallait toujours prévoir des cycles de tests pour obtenir un résultat professionnel.
La conférence s’est conclue avec les avantages du responsive design du point de vue SEO : architecture unique, moins de problèmes de linking à gérer, temps de chargent optimisé, duplicate (Google recommande de détecter correctement les user agent et utiliser le responsive design), des URL unique, pas de redirections… Google utilise un user agent "device" pour un site mobile…alors que Google ne pourrait utiliser qu'un seul user agent dans le cas d’un responsive design bien optimisé.
Voir le compte rendu des comptes rendus du Seocampus 2013
Voir le compte rendu Seocampus 2013 sur Woptimo
Voir le compte rendu Seocampus2013 sur Mar1e
Voir la présentation Slideshare "Le SEO personnel"
Voir la présentation Slideshare "Analyse concurrentielle SEO"
Voir le compte rendu Seocampus 2013 sur Le Referenceur
Voir le compte rendu Seocampus 2013 sur le blog de Laurent bourrelly
Voir le compte rendu sur le blog de Julien Jimenez
Voir le compte rendu Seocampus 2012 sur Volumium
Auteur : Bertrand Masselot est expert en référencement SEO & SEA et titulaire d’une certification Google « Digital Analytics Fundamentals ». Il a travaillé pour de nombreuses marques et grands comptes chez Publicis, avant de créer la société Volumium. Volumium compte parmi ses clients des grands comptes et PME.
20 commentaires
Bonjour Bertrand
(tout d'abord merci pour le lien)
je suis impressionné par le fait que tu aies si bien retranscris ce que tu as vu, vécu et ressenti pour le partager ainsi;
C'est clairement un très bon compte rendu car ça permet à ceux qui n'y étaient pas de pouvoir se faire une idée, de glaner (oui !) des idées, des notions de ce qui aura été échangé.
Bref, au nom de ceux qui n'y étaient pas, merci. Sinon, j'avais d'autres conf's en vue, j'espère que d'autres retranscriront le complément pour avoir une vue complète. Même si rien ne remplace la participation… (je sais bien)
L'année prochaine, j'espère participer au Seo Campus, parce que c'était clairement "The place to be" pour rencontrer les confrères, les concurrents et les collègues de discussions.
l'argument de Qwant qu'ils ont de meilleures informations que Google sur une recherche ville est un peu bidon. En faite, ils pompent plus à Wikipedia, c'est tout.
merci pour les informations sur le Penguin, c'est intéressant pour savoir comment choisir ses liens et ses cibles.
J'aurais bien aimé assisté à la conférence sur le responsive web design… Cool ton compte-rendu ainsi que ton blog que je découvre via Twitter ^^
@loran merci ! c'était effectivement le but. C'est un truc que j'apprécie, la rédaction et le travail de journalisme. Au sujet des autres comptes rendus, je les agrège progressivement à la fin de l'article. Au plaisir de se rencontrer ou de se croiser à un autre évènement.
@erwan moi je défends à 100% ce type d'initiative. A relire et à revoir, d'ailleurs, le podcast de Laurent Bourrelly sur ce sujet : http://www.laurentbourrelly.com/blog/1354.php
@johanna merci. A propos, je devrais refondre ce blog sous peu !
Merci pour le compte-rendu. La présentation sur l'optimisation via analyse du crawl semble très intéressante notamment sur les gros sites. Je note aussi que le responsive design (plus difficile à mettre en oeuvre) est aussi plus profitable et tout a fait en phase avec les recommandations de Google par rapport à cette techno.
En aparté, petite faute sur le mot algorithme en tout début d'article.
J'adore ce genre de retour, très fluide et très simple à lire, merci à toi et au plaisir de se voir la prochaine fois !
@Tyseo merci c'est corrigé !
@Korleon ok merci – j'ajoute un lien vers ton CR !!
Merci pour ce compte-rendu particulièrement dense. J'ai raté la conf sur Google News, donc merci pour ce petit résumé et pour le lien vers la présentation. Je vais aller éplucher ça dès demain !
Bonjour Bertrand et merci pour ce retour exhaustif et ces quelques photos qui agrementent ce résumé et récapitulatif des conférences dispensées lors de cette édition 2013 du SEO Campus ! Tout est centralisé et c'est très pratique pour les personnes qui n'ont pas eu la chance de pouvoir se rendre à cette manifestation (comme moi !).
Bien que la polémique fasse rage, je salue grandement l'initiative de Qwant car s'attaquer au marché du Search relève d'un vrai défi. Le Search est un des rares domaines qui a très peu évolué depuis l'avènement de Google et c'est fort dommage. Notamment pour les internautes et les référenceurs. Par conséquent, je leur souhaite bonne chance pour ce challenge extrêmement ambitieux.
Merci pour le compte rendu, j'ai assisté à l'intervention d' Olivier Andrieu à Tunis lors du seo camp 2013. J'en garde un souvenir agréable et un vrai sens de la pédagogie quant à la transmis sinon de l'information.
Bravo Bertrand pour ce récapitulatif 😉
A+ Rachid
@rachid merci Rachid ! On se voit bientôt ?!
@cedric, merci !
merci d'avoir pris la peine d'essayer de nous rapporter ce qui c'est passé à la conférence, c'est toujours utlile pour nous. la partie google news aussi m'intéresse beaucoup, malheuresment les conférencier ne se sont pas étalés, si tu as des informations supplémentaires je suis preneuse
Intéressant, merci !
@assurance chien : merci ! hé bien parlons-nous si tu veux ?!
@ttorris merci à toi
@heyWatch
Merci !
100% d'accord avec toi sur Qwant… mais pas d'accord quand tu dis que "le Search est un des rares domaines qui a très peu évolué depuis l'avènement de Google". Moi je trouve que ça va de plus en vite et c'est ça qui est génial !
Merci pour le récapitulatif!