Webmercatique's Blog

décembre 12, 2009

Les modules Firefox indispensables

Filed under: SEO — webmercatique @ 2:49
Tags:

Seoquake :
SeoQuake comme son nom l’indique est un outil SEO. En effet, le fait d’installer ce module vous rajoutera une petite barre en dessous de l’adresse du siteweb sur lequel vous surfez. Cette barre indique en temps réel les principales informations SEO du site, à savoir : PageRank, nombre de pages indexés sur les moteurs de recherche principaux, l’Alexa rank, l’âge du site, le nombre de liens internes et externes et la densité des mots de la page entre autre. SeoQuake est le module SEO de référence sur Firefox SeoQuake est le module SEO de référence sur Firefox Vous pourrez également accéder aux infos plus générales du site, à savoir les balises META, l’hébergeur web et le sitemap par exemple. Bref, un outil vivement recommandé à tous ceux qui s’intéressent au référencement naturel car il permet d’avoir une vision globale de la page en quelques secondes sans devoir passer par d’interminables analyses manuelles à chaque fois.
Web developer :
à l’instar de SeoQuake, Web developer rajoutera une petite barre en dessous de l’url du site actuellement visité. Cette barre fournira également des informations très utiles mais plus techniques et vous permettra d’accéder à plus de détails sur les cookies, les CSS, les formulaires, les images, le code source et autres informations liées au site web. Web developper affiche en un clic les informations « techniques » d’un site Web developer affiche en un clic les informations « techniques » d’un site Très utile pour avoir accès rapidement aux cookies d’un site par exemple, pour afficher les ALT des images ou pour entourer certains éléments. Bref, vous aurez une grande possibilité d’action avec cet outil et pourrez accéder à tous les détails techniques en un clic.

Firebug :
Firebug est un outil qui peut sembler complexe à première vue mais qui est rapide à prendre en main et qui sera très intéressant pour ceux qui touchent au référencement naturel ou qui pratiquent une veille concurrentielle régulière. En effet, cet excellent module permet plusieurs choses : la première c’est qu’il permet de retracer très précisément les différentes redirections auxquelles vous pouvez être soumis lors de la visite de certains sites. Ce qui vous permettra soit de tester les redirections que vous avez mis en place sur votre site, soit de constater celles mises en place par vos concurrents. Par ailleurs, le plug-in vous permettra de « naviguer » au sein du code source. C’est-à-dire que vous aurez la possibilité de scinder la fenêtre en deux : sur la fenêtre du haut la navigation de base et sur la fenêtre du bas le code source avec la mise en avant de l’élément qui vous intéresse. Je vous invite à regarder l’image ci-dessous pour mieux comprendre. Firebug permet de retracer les redirection et de naviguer au sein des codes sources Firebug permet de retracer les redirections et de naviguer au sein des codes sources L’élément mis en avant est celui pointé par le curseur de la souris. Vous pouvez ainsi vous balader au sein du code source en accédant directement à l’élément qui vous intéresse.
IE Tab :
IE Tab est un module non pas indispensable mais très pratique à tous ceux qui s’intéressent à la creation de sites internet car il permet d’afficher des fenêtres d’Internet Explorer en onglets Firefox. Vous n’aurez plus à ouvrir les deux navigateurs pour constater d’éventuelles différences d’affichages mais pourrez le faire directement au sein de Firefox. C’est donc un plug-in plutôt pratique qu’indispensable mais on a vite fait de s’y habituer
IE Tab intégre directement Internet Explorer dans les onglets de Firefox IE Tab intégre directement Internet Explorer dans les onglets de Firefox comme par exemple ici avec le site de L’équipe
Fireshot :
Dans la même lignée qu’IE Tab, Fireshot n’est pas un outil indispensable à proprement parler mais très pratique en soi. En effet, lorsque vous voulez mettre en avant une page internet ou un élément d’une page internet, plutôt que de devoir passer par une capture écran que vous devrez éditer à l’aide d’un programme de retouche, vous pourrez le faire directement à l’aide du plug-in. Fireshot permet de créer des présentations très pro directement à partir du module Fireshot permet de créer des présentations très pro directement à partir du module Fireshot permet ainsi de faire de jolies présentations, très professionnelles, directement à partir des pages web. Tout y est configurables : des formes aux couleurs, ainsi que la police ou encore la taille ou le format de l’image.

Les outils liés au confort de navigation

Je profite de cet article pour rajouter quelques modules qui, loin d’être indispensables, offrent un confort de navigation non négligeable et vous intéresseront peut-être également.

Xmarks : Si vous utilisez plusieurs ordinateurs, ce module devrait vous réjouir : il permet de synchroniser différents Firefox afin que la mise à jour des marques pages ou des bookmarks sur l’un des PC se fasse automatiquement sur les autres PC possédant le module.

Smart Bookmarks : De base, on ne peut afficher plus d’une dizaine de sites internet dans sa barre personnelle. Ce module vient corriger cela et vous offre la possibilité d’en afficher beaucoup plus en limitant leur affichage à de simples icônes qui se déroulent au passage de la souris. Très pratique, pour ne pas dire addictif. Smart Bookmark permet d’insérer de nombreuses icônes dans la barre personnelle Smart Bookmarks Bar permet d’insérer de nombreuses icônes dans la barre personnelle

QuickNote : Enfin je terminerai cette mini sélection par QuickNote, un mini notepad intégré à Firefox qui permettra aux plus étourdis d’entres vous d’accéder à l’aide d’un simple raccourci (ctrl + F7) à un bloc note afin d’y noter une idée qui vous passerait par la tête en visitant un site par exemple. Que pensez-vous de cette liste? Utilisez-vous d’autres modules Firefox dans vos démarches liées au web marketing ?

Publicités

décembre 10, 2009

Le cloaking expliqué aux nuls

Filed under: SEO — webmercatique @ 9:53
Tags: ,

Vous savez sûrement qu’il existe des méthodes plus ou moins appréciées de Google et des moteurs de recherche en général pour faire remonter un site dans les pages de recherche. On distingue d’ailleurs deux grands mouvements, le White Hat (les bonnes pratiques) et le Black Hat (les mauvaises pratiques).

Une méthode Black Hat autrefois couramment utilisée s’appelle le cloaking.

Je vous propose aujourd’hui une piqûre de rappel pour certains et une explication pour d’autres sur cette méthode de référencement ainsi que quelques exemples pour illustrer tout cela. Le cloaking expliqué à ma grand-mère Chère grand-mère, lorsque tu visites un site il y a une partie visible et une partie invisible.

La partie visible, rien de plus simple, c’est par exemple l’adresse du site web dans le navigateur. Ça peut également être les balises META ou plus généralement le code source du site de manière générale (ma grand-mère est super high-tech n’est-ce pas ?).

Mais il existe également une partie invisible qui se traduit par exemple par du javascript. Le javascript c’est un langage de script utilisé principalement dans des pages HTML.

Sans rentrer dans les détails, il permet d’intégrer une interaction avec les internautes notamment. Et là où le bat blesse, c’est que les robots des moteurs de recherche ne savent lire que la partie visible d’un site. En résumé, les robots ne savent pas lire tout ce qui est invisible dans un code source, à savoir le javascript, le flash ou encore visionner les images par exemple. Ainsi, la faille réside dans le fait de créer une page spécialement destinée aux robots des moteurs de recherche, optimisée pour le référencement naturel qui, pour caricaturer ne contient aucun contenu si ce n’est des mots clés. Le site proposera une version alternative design et très complète dans laquelle le contenu serait dissimulé dans du javascript ou dans un autre format illisible des robots sans se soucier d’une quelconque optimisation SEO pour les internautes.

En réalité il existe plusieurs manières de pratiquer le cloaking. Je ne vais pas toutes les détailler mais en citer une avant de passer à des exemples. Chaque propriétaire de site web peut identifier clairement ses visiteurs. Ainsi, si un robot vient visiter mon site, je saurai quel robot est venu et quand. Il existe des pratiques pour rediriger automatiquement ces robots en fonction de leurs noms ou de leurs IP vers une page optimisée pour le référencement naturel tandis que tous les autres internautes pourront accéder à la page « normale » du site. Pour résumer le cloaking en une phrase : cela consiste à proposer deux versions différentes de son site : une pour les moteurs de recherche et une pour les visiteurs. Court historique du cloaking Le cloaking ça existe depuis de nombreuses années mais ça n’est que depuis 6 ans qu’il est réellement interdit et réprimander par les moteurs de recherche. Pour se remettre dans le contexte, il y a 6 ans, le cloaking était régulièrement pratiqué et cela même de manière professionnelle, à savoir en agences de référencement par exemple. L’exemple le plus connu est celui de BMW qui avait confié le référencement de son site à une célèbre web agency française (dont le nom commence par N pour ne pas la citer).

A l’époque, Google connaissait cette pratique et recommandait dans ses célèbres guidelines aux sites du monde entier d’éviter ce genre de pratiques malhonnêtes. Les Guidelines de Google : il y a 6 ans, le « n’utilisez pas » de la phrase surlignée était autrefois un « évitez » Les Guidelines de Google : il y a 6 ans, le « n’utilisez pas » de la phrase surlignée était autrefois un « évitez » Guidelines accessibles ici.

Devant la crainte que de telles pratiques se banalisent, le moteur décida de changer de politique et fit de BMW un exemple en désindexant entièrement la marque allemande de toutes ses pages de recherche. Rassurez-vous, BMW se porte très bien et après quelques négociations, Google a finalement réindexée les pages. Toutefois, depuis ce jour, la pratique du cloaking s’annonce réellement comme du Black Hat et il est vivement déconseillé de la pratiquer sous peine de subir des sanctions. Le cloaking aujourd’hui Vous allez me dire si c’est officiellement interdit pourquoi je vous en parle ? Et bien car c’est encore fréquemment utilisé et pas uniquement par des sites amateurs ou qui ont peu à perdre. Là encore un exemple : il vous faut pour cela utiliser (ou télécharger) Firefox et avoir le module « Web developper » d’installé. Cela vous coûtera deux clics et vous apprécierez la qualité du plug-in (dont nous aurons besoin pour l’exemple).

Rendez-vous ensuite sur le site de la célèbre marque Cartier. Ça en jette n’est-ce pas ? Le site est très joli mais à première vue pas très optimisé pour le référencement naturel. Pourtant si vous allez sur Google et que vous tapez « Cartier » le site ressort en premier alors qu’il y a fort à parier que c’est un mot très concurrentiel. Où réside le secret ? Retournez sur le site de Cartier et désactivez les CSS grâce au module Web Developper.

Désactiver les CSS avec le module Web Developper Désactiver les CSS avec le module Web Developper Tiens donc, la barre de scroll s’est soudainement rallongée. Descendez un peu et observez ce qui apparaît sous le site. C’est du contenu dissimulé et c’est exactement ce qu’on appelle du cloaking. Le site contient clairement deux versions : une pour les moteurs qui lisent le texte caché par le CSS et une pour les visiteurs qui n’ont en théorie pas accès à ce texte. Le texte ne contient évidemment que des mots clés et a pour but de maximiser le référencement du site. Cela fait environ deux ans que le site tourne comme cela et ne subit aucune sanction. Notez toutefois que du jour au lendemain il pourrait subir les foudres de Google et être sujet à de lourdes sanctions. A coté de cela, notamment dans les pays de l’est, le cloaking est poussée à une étape encore plus loin puisque Google n’est pas si dupe que ça et connaît les principales méthodes de cloaking.

Il arrive d’ailleurs le plus souvent à les détecter en plus ou moins de temps. C’est une division « humaine » qui s’en occupe et non pas un robot qui serait optimisé pour détecter du cloaking. Les webmasters des pays de l’est ont développé des techniques assez complexes qui consistent à intégrer du javascript dans du javascript, et cela sous plusieurs niveaux afin qu’il devienne titanesque de repérer ces méthodes de cloaking. En résumé, le cloaking est clairement moins utilisé qu’autrefois mais reste toutefois d’actualité. Lorsque l’on s’intéresse au SEO, il est indispensable de connaître les techniques interdites sans quoi des erreurs seraient vite arrivées. Je vous déconseille d’utiliser le cloaking au même titre que la plupart des techniques dites Black Hat puisque même si votre site remontera temporairement sur certaines requêtes, il y a fort à parier qu’un jour ou l’autre vous vous ferez prendre et votre site se fera sandboxer (blacklister par Google).

septembre 9, 2009

Référencement : critères de positionnement d’un site

Filed under: SEO — webmercatique @ 1:51
Tags: ,

Les 5 critères clés pour le positionnement d’un site

  • Ancres des liens externes reprenant les mots clés stratégiques
  • Popularité de la page (quantité et qualité des liens externes)
  • Diversité des sources de liens (nombreux domaines et IPs)
  • Utilisation des mots clés dans la balise “title”
  • Autorité du domaine suite à des liens d’autres domaines d’autorité (Trustrank)

Les 5 facteurs bloquants pour le positionnement :

  • Utilisation du cloaking à des fins déceptives (présenter un contenu web différent en fonction de l’utilisateur).
  • Achat de liens de sources connues des moteurs
  • Liens vers des sites de spam
  • Utilisation du cloaking par user agent (détecter le robot du moteur de recherche et lui présenter un contenu différent)
  • Site inaccessible et/ou mauvaise performance du serveur

Les 10 techniques pour bâtir une stratégie de netlinking efficace (traduit de l’anglais)

  • Le linkbait et la création de contenu viral (créer du contenu qui va susciter spontanément des liens naturels)
  • Bloguer, participer à la blogosphère
  • Créer du contenu à valeur ajoutée sans vocation marketing/commerciale
  • Relations presse au-delà de la publication du simple communiqués de presse
  • Négociation personnalisée auprès des webmasters
  • Widgets et contenus embarqués
  • Conférences, événements et réseau personnel
  • Création de contenus par l’utilisateur (incitatif avec lien vers profil, contenu…)
  • Annuaires populaires, de confiance type Yahoo!, Dmoz, Lii…
  • Réseaux sociaux/communautés de niche

Source

mars 29, 2009

Comment mesurer le succès de votre SEO ?

Filed under: SEO — webmercatique @ 8:57
Tags: , ,

Il fut un temps où mesurer le SEO d’un site se faisait uniquement par un suivi des pages de recherche de Google. Sortir premier sur une requête était synonyme de succès et apporteur d’un fort trafic. Désormais, d’autres critères entrent en compte comme la géo-localisation ou la personnalisation des résultats par exemple, qui changent en partie la donne. Certes une première position est toujours synonyme de succès mais pas autant qu’avant. Ainsi, il est beaucoup plus compliqué de déterminer un véritable numéro 1 puisque les pages de recherches peuvent différer d’un internaute à l’autre. Peut-être alors que le résultat affiché dans votre outil d’analyse n’est plus aussi pertinent qu’il l’était autrefois puisqu’il ne reflétera pas entièrement la véritable position de votre site en tenant compte des écrans de tous les internautes. Alors comment mesure-t-on désormais le résultat d’un travail SEO ? Quels outils faut-il utiliser ? Comment les utiliser ? Voyons ensemble une des pratiques existantes. Comment mesurer les résultats ? On utilise principalement les outils de web analytique pour mesurer les résultats. Le web analytique c’est la collecte et l’analyse d’informations sur votre site Internet (voir Le web analytique pour les nuls). Le web analytique implique la mise en place d’un outil spécifique. Alors selon vous quel outil est le plus utilisé par les particuliers et PME par exemple ? Et bien aucun, le web analytique est encore très peu utilisé dans le monde professionnel et ce malgré le développement d’outils et les informations qui circulent à ce sujet. Parmi les entreprises qui utilisent le web analytique, Xiti et Google Analytics sont les deux outils principalement utilisés. Comment utiliser Google analytic ? Nous nous focaliserons principalement sur Google Analytics pour la simple raison qu’il est un peu plus complet que Xiti, du moins dans sa version gratuite. Google Analytics est un des outils les plus utilisés en matière de web analytique Google Analytics est un des outils les plus utilisés en matière de web analytique La première chose à faire est bien évidemment d’installer l’outil sur votre site. Pour cela, rien de plus simple, il suffit d’intégrer le code javascript dans vos pages. Le mieux est de l’intégrer directement dans le bas de la page afin qu’il comptabilise uniquement les visiteurs qui chargent réellement la page. La manœuvre est terminée, vous obtiendrez des données dès le lendemain. Mais vous vous en doutez, la véritable difficulté consiste à bien analyser les données qui s’y trouvent. La première chose à faire pour cela est de déterminer le ou les buts de votre site au sein de l’outil : qu’est-ce qui constitue une conversion ? Pour cela, rien de plus simple : il vous suffit de vous diriger vers l’onglet « Objectif » de Google Analytics où vous pouvez entrer jusqu’à 4 buts (un but peut contenir plusieurs objectifs), c’est-à-dire « conversions » : vente, inscription à une newsletter ou autre lead, formulaire de contact rempli, affichage d’un PDF spécifique, etc. La fenêtre de personnalisation des buts et objectifs de Google Analytics La fenêtre de personnalisation des buts et objectifs de Google Analytics Vous pouvez ensuite préciser la valeur de chaque action, en pourcentage, en euro ou en tout ce que vous souhaitez. Ainsi, chaque action aura un coût et vous pourrez fixer précisément les efforts à fournir pour atteindre un objectif. Vous pourrez également déterminer les termes qui fonctionnent réellement. L’analyse des résultats – Grâce au SEO, le trafic de mon site a augmenté de 300% et mes ventes de 100% ! – Ouah ! c’est génial ! mais pourquoi une telle différence ? Ainsi un site qui augmentera son trafic de 300% mais ses ventes (ou plus généralement son ou ses buts) de 100% par exemple, aura un véritable travail d’analyse à effectuer derrière pour mieux comprendre cette différence. Quels mots apportent du trafic ? Lesquels convertissent réellement ? Qui sont les internautes qui viennent uniquement par curiosité et non pour acheter ? La première question à se poser, c’est bien évidemment « comment déterminer la valeur d’un but ? ». C’est facile pour des données e-commerce telles que des ventes mais c’est beaucoup moins évident pour des données plus arbitraires telle qu’une inscription à une newsletter par exemple. Il faut alors regarder d’autres données telle que la valeur d’un inscrit à votre newsletter par rapport aux ventes générées par cette newsletter. Quelques minutes ou heures devraient suffire pour obtenir de telles données. Un autre exemple pourrait être de diviser vos gains publicitaires sur une newsletter par le nombre d’inscrits, ce qui vous donnera également une valeur. Une fois que vous aurez associé une valeur à tous vos objectifs, vous n’aurez plus qu’à aller dans l’onglet « Sources de trafic » puis dans « Mots clés ». Là vous pourrez classer les différents termes ayant générés du trafic puis les classer par valeur en euro. Ainsi, vous ne regarderez plus vos résultats SEO en vous disant « ce terme est visible et donc convertira » ou encore « ce terme est concurrentiel et je suis bien classé, super » mais aurez une approche plus réaliste des choses en regardant concrètement les termes qui vous apportent le trafic qualifié et donc de l’argent. Vous pourrez de cette manière effectuer le travail nécessaire pour travailler davantage sur les termes qui rapportent et non forcément sur ceux qui sont synonymes d’une plus grande visibilité. Le but d’une telle stratégie n’est pas d’avoir des chiffres de visites mais d’avoir une idée concrète des termes qui convertissent réellement afin de savoir où vous devez axer vos efforts. Ainsi, on en revient toujours au même point, le SEO n’est pas une optimisation faite à un instant T mais un travail effectué sur le long terme et de manière quasi permanente. Il faut être en mesure de sans cesse travailler sur les termes qui fonctionnent réellement et de faire le nécessaire pour être présent sur des recherches que peut-être vous ne soupçonniez pas mais qui convertissent pourtant énormément. On ne le répétera jamais assez : le SEO ne sert pas à acquérir le plus de trafic possible mais uniquement du trafic qualifié sachant que c’est à vous de qualifier ce trafic en fonction de vos intérêts.

mars 22, 2009

Cinq conseils pour limiter l’abandon de panier

Filed under: ecommerce — webmercatique @ 1:44
Tags: , ,

1/ Limiter la longueur du tunnel à 4 ou 5 étapes

Faire attention à l’ordre des étapes.

Informer l’internaute dès le panier sur les frais et les modes de livraison, où rentrer un code promotion ou un numéro de carte de fidélité etc.

L’utilisateur ne doit pas doit pas avoir à chercher.

L’utilisateur doit pouvoir se situer dans le processus d’achat et savoir ce qui va lui être demandé lors des étapes suivantes.

A chaque étape, l’utilisateur doit pouvoir revenir en arrière.

Astuce : un système d’onglets imbriqués, avec l’onglet actif dans une couleur différente.

2/Simplifier la saisie des informations clients


Eviter de demander à l’utilisateur trop d’effort.

Quelques idées pour limiter la saisie de données :

  • – vérification en temps réel d’une adresse pour éviter les fautes de frappe.
  • – repérage automatique s’il manque un chiffre dans un numéro de téléphone.
  • – pratique de l’auto-login de façon à ce que l’internaute n’ait pas d’effort à faire pour s’identifier

L’ouverture d’un compte doit n’intervenir qu’en fin de process
Donner à l’utilisateur la possibilité d’acheter sans ouvrir un compte tout de suite. Idéalement, l’ouverture du compte doit se faire à la fin pour formaliser l’achat.

L’acheteur ne doit pas avoir à saisir ses coordonnées une deuxième fois. C’est au site d’enregistrer ces informations pour créer le compte. A la fin du processus d’achat, l’internaute doit pouvoir s’identifier de façon plus complète.

Astuce : poser des questions après le paiement pour mieux connaître l’acheteur : avez-vous des enfants, quelles marques aimez-vous ?

3/ Concevoir une page « panier d’achat » rassurante

L’utilisateur doit pouvoir :

  • – trouver immédiatement le sous-total et le total,
  • – avoir déjà une idée précise des frais de livraison,
  • – voir affichés les principaux éléments de réassurance (SAV, échange, paiement sécurisé, etc.).

Eviter polluer l’utilisateur par de nouvelles sollicitations commerciales.

4/ Proposer des modes de livraison et de paiement diversifiés

Proposer Paypal, un moyen de paiement désormais incontournable

Autre élément à ne pas négliger : le mode de transport. Proposer des modes et des tarifs de livraison variés : point relais, RDV téléphonique, lieu de travail…

5/ Relancer les abandons de panier

Il est stratégique de s’intéresser aux prospects qui n’ont pas concrétisé.

Quelques idées :

  • – Conserver le panier de l’utilisateur pendant plusieurs jours après son abandon et le relancer.
  • – Envoyer des relances automatiques par email (email de rattrapage)
  • – Faire du retargeting publicitaire (promotion produit ciblée)…
    cf. article : réussir son Retargeting
  • – Pour les paniers élevés, appeler le prospect pour l’aider à finaliser sa commande.

Source

« Page précédente