Webmercatique's Blog

décembre 12, 2009

Les modules Firefox indispensables

Filed under: SEO — webmercatique @ 2:49
Tags:

Seoquake :
SeoQuake comme son nom l’indique est un outil SEO. En effet, le fait d’installer ce module vous rajoutera une petite barre en dessous de l’adresse du siteweb sur lequel vous surfez. Cette barre indique en temps réel les principales informations SEO du site, à savoir : PageRank, nombre de pages indexés sur les moteurs de recherche principaux, l’Alexa rank, l’âge du site, le nombre de liens internes et externes et la densité des mots de la page entre autre. SeoQuake est le module SEO de référence sur Firefox SeoQuake est le module SEO de référence sur Firefox Vous pourrez également accéder aux infos plus générales du site, à savoir les balises META, l’hébergeur web et le sitemap par exemple. Bref, un outil vivement recommandé à tous ceux qui s’intéressent au référencement naturel car il permet d’avoir une vision globale de la page en quelques secondes sans devoir passer par d’interminables analyses manuelles à chaque fois.
Web developer :
à l’instar de SeoQuake, Web developer rajoutera une petite barre en dessous de l’url du site actuellement visité. Cette barre fournira également des informations très utiles mais plus techniques et vous permettra d’accéder à plus de détails sur les cookies, les CSS, les formulaires, les images, le code source et autres informations liées au site web. Web developper affiche en un clic les informations « techniques » d’un site Web developer affiche en un clic les informations « techniques » d’un site Très utile pour avoir accès rapidement aux cookies d’un site par exemple, pour afficher les ALT des images ou pour entourer certains éléments. Bref, vous aurez une grande possibilité d’action avec cet outil et pourrez accéder à tous les détails techniques en un clic.

Firebug :
Firebug est un outil qui peut sembler complexe à première vue mais qui est rapide à prendre en main et qui sera très intéressant pour ceux qui touchent au référencement naturel ou qui pratiquent une veille concurrentielle régulière. En effet, cet excellent module permet plusieurs choses : la première c’est qu’il permet de retracer très précisément les différentes redirections auxquelles vous pouvez être soumis lors de la visite de certains sites. Ce qui vous permettra soit de tester les redirections que vous avez mis en place sur votre site, soit de constater celles mises en place par vos concurrents. Par ailleurs, le plug-in vous permettra de « naviguer » au sein du code source. C’est-à-dire que vous aurez la possibilité de scinder la fenêtre en deux : sur la fenêtre du haut la navigation de base et sur la fenêtre du bas le code source avec la mise en avant de l’élément qui vous intéresse. Je vous invite à regarder l’image ci-dessous pour mieux comprendre. Firebug permet de retracer les redirection et de naviguer au sein des codes sources Firebug permet de retracer les redirections et de naviguer au sein des codes sources L’élément mis en avant est celui pointé par le curseur de la souris. Vous pouvez ainsi vous balader au sein du code source en accédant directement à l’élément qui vous intéresse.
IE Tab :
IE Tab est un module non pas indispensable mais très pratique à tous ceux qui s’intéressent à la creation de sites internet car il permet d’afficher des fenêtres d’Internet Explorer en onglets Firefox. Vous n’aurez plus à ouvrir les deux navigateurs pour constater d’éventuelles différences d’affichages mais pourrez le faire directement au sein de Firefox. C’est donc un plug-in plutôt pratique qu’indispensable mais on a vite fait de s’y habituer
IE Tab intégre directement Internet Explorer dans les onglets de Firefox IE Tab intégre directement Internet Explorer dans les onglets de Firefox comme par exemple ici avec le site de L’équipe
Fireshot :
Dans la même lignée qu’IE Tab, Fireshot n’est pas un outil indispensable à proprement parler mais très pratique en soi. En effet, lorsque vous voulez mettre en avant une page internet ou un élément d’une page internet, plutôt que de devoir passer par une capture écran que vous devrez éditer à l’aide d’un programme de retouche, vous pourrez le faire directement à l’aide du plug-in. Fireshot permet de créer des présentations très pro directement à partir du module Fireshot permet de créer des présentations très pro directement à partir du module Fireshot permet ainsi de faire de jolies présentations, très professionnelles, directement à partir des pages web. Tout y est configurables : des formes aux couleurs, ainsi que la police ou encore la taille ou le format de l’image.

Les outils liés au confort de navigation

Je profite de cet article pour rajouter quelques modules qui, loin d’être indispensables, offrent un confort de navigation non négligeable et vous intéresseront peut-être également.

Xmarks : Si vous utilisez plusieurs ordinateurs, ce module devrait vous réjouir : il permet de synchroniser différents Firefox afin que la mise à jour des marques pages ou des bookmarks sur l’un des PC se fasse automatiquement sur les autres PC possédant le module.

Smart Bookmarks : De base, on ne peut afficher plus d’une dizaine de sites internet dans sa barre personnelle. Ce module vient corriger cela et vous offre la possibilité d’en afficher beaucoup plus en limitant leur affichage à de simples icônes qui se déroulent au passage de la souris. Très pratique, pour ne pas dire addictif. Smart Bookmark permet d’insérer de nombreuses icônes dans la barre personnelle Smart Bookmarks Bar permet d’insérer de nombreuses icônes dans la barre personnelle

QuickNote : Enfin je terminerai cette mini sélection par QuickNote, un mini notepad intégré à Firefox qui permettra aux plus étourdis d’entres vous d’accéder à l’aide d’un simple raccourci (ctrl + F7) à un bloc note afin d’y noter une idée qui vous passerait par la tête en visitant un site par exemple. Que pensez-vous de cette liste? Utilisez-vous d’autres modules Firefox dans vos démarches liées au web marketing ?

Publicités

décembre 10, 2009

Le cloaking expliqué aux nuls

Filed under: SEO — webmercatique @ 9:53
Tags: ,

Vous savez sûrement qu’il existe des méthodes plus ou moins appréciées de Google et des moteurs de recherche en général pour faire remonter un site dans les pages de recherche. On distingue d’ailleurs deux grands mouvements, le White Hat (les bonnes pratiques) et le Black Hat (les mauvaises pratiques).

Une méthode Black Hat autrefois couramment utilisée s’appelle le cloaking.

Je vous propose aujourd’hui une piqûre de rappel pour certains et une explication pour d’autres sur cette méthode de référencement ainsi que quelques exemples pour illustrer tout cela. Le cloaking expliqué à ma grand-mère Chère grand-mère, lorsque tu visites un site il y a une partie visible et une partie invisible.

La partie visible, rien de plus simple, c’est par exemple l’adresse du site web dans le navigateur. Ça peut également être les balises META ou plus généralement le code source du site de manière générale (ma grand-mère est super high-tech n’est-ce pas ?).

Mais il existe également une partie invisible qui se traduit par exemple par du javascript. Le javascript c’est un langage de script utilisé principalement dans des pages HTML.

Sans rentrer dans les détails, il permet d’intégrer une interaction avec les internautes notamment. Et là où le bat blesse, c’est que les robots des moteurs de recherche ne savent lire que la partie visible d’un site. En résumé, les robots ne savent pas lire tout ce qui est invisible dans un code source, à savoir le javascript, le flash ou encore visionner les images par exemple. Ainsi, la faille réside dans le fait de créer une page spécialement destinée aux robots des moteurs de recherche, optimisée pour le référencement naturel qui, pour caricaturer ne contient aucun contenu si ce n’est des mots clés. Le site proposera une version alternative design et très complète dans laquelle le contenu serait dissimulé dans du javascript ou dans un autre format illisible des robots sans se soucier d’une quelconque optimisation SEO pour les internautes.

En réalité il existe plusieurs manières de pratiquer le cloaking. Je ne vais pas toutes les détailler mais en citer une avant de passer à des exemples. Chaque propriétaire de site web peut identifier clairement ses visiteurs. Ainsi, si un robot vient visiter mon site, je saurai quel robot est venu et quand. Il existe des pratiques pour rediriger automatiquement ces robots en fonction de leurs noms ou de leurs IP vers une page optimisée pour le référencement naturel tandis que tous les autres internautes pourront accéder à la page « normale » du site. Pour résumer le cloaking en une phrase : cela consiste à proposer deux versions différentes de son site : une pour les moteurs de recherche et une pour les visiteurs. Court historique du cloaking Le cloaking ça existe depuis de nombreuses années mais ça n’est que depuis 6 ans qu’il est réellement interdit et réprimander par les moteurs de recherche. Pour se remettre dans le contexte, il y a 6 ans, le cloaking était régulièrement pratiqué et cela même de manière professionnelle, à savoir en agences de référencement par exemple. L’exemple le plus connu est celui de BMW qui avait confié le référencement de son site à une célèbre web agency française (dont le nom commence par N pour ne pas la citer).

A l’époque, Google connaissait cette pratique et recommandait dans ses célèbres guidelines aux sites du monde entier d’éviter ce genre de pratiques malhonnêtes. Les Guidelines de Google : il y a 6 ans, le « n’utilisez pas » de la phrase surlignée était autrefois un « évitez » Les Guidelines de Google : il y a 6 ans, le « n’utilisez pas » de la phrase surlignée était autrefois un « évitez » Guidelines accessibles ici.

Devant la crainte que de telles pratiques se banalisent, le moteur décida de changer de politique et fit de BMW un exemple en désindexant entièrement la marque allemande de toutes ses pages de recherche. Rassurez-vous, BMW se porte très bien et après quelques négociations, Google a finalement réindexée les pages. Toutefois, depuis ce jour, la pratique du cloaking s’annonce réellement comme du Black Hat et il est vivement déconseillé de la pratiquer sous peine de subir des sanctions. Le cloaking aujourd’hui Vous allez me dire si c’est officiellement interdit pourquoi je vous en parle ? Et bien car c’est encore fréquemment utilisé et pas uniquement par des sites amateurs ou qui ont peu à perdre. Là encore un exemple : il vous faut pour cela utiliser (ou télécharger) Firefox et avoir le module « Web developper » d’installé. Cela vous coûtera deux clics et vous apprécierez la qualité du plug-in (dont nous aurons besoin pour l’exemple).

Rendez-vous ensuite sur le site de la célèbre marque Cartier. Ça en jette n’est-ce pas ? Le site est très joli mais à première vue pas très optimisé pour le référencement naturel. Pourtant si vous allez sur Google et que vous tapez « Cartier » le site ressort en premier alors qu’il y a fort à parier que c’est un mot très concurrentiel. Où réside le secret ? Retournez sur le site de Cartier et désactivez les CSS grâce au module Web Developper.

Désactiver les CSS avec le module Web Developper Désactiver les CSS avec le module Web Developper Tiens donc, la barre de scroll s’est soudainement rallongée. Descendez un peu et observez ce qui apparaît sous le site. C’est du contenu dissimulé et c’est exactement ce qu’on appelle du cloaking. Le site contient clairement deux versions : une pour les moteurs qui lisent le texte caché par le CSS et une pour les visiteurs qui n’ont en théorie pas accès à ce texte. Le texte ne contient évidemment que des mots clés et a pour but de maximiser le référencement du site. Cela fait environ deux ans que le site tourne comme cela et ne subit aucune sanction. Notez toutefois que du jour au lendemain il pourrait subir les foudres de Google et être sujet à de lourdes sanctions. A coté de cela, notamment dans les pays de l’est, le cloaking est poussée à une étape encore plus loin puisque Google n’est pas si dupe que ça et connaît les principales méthodes de cloaking.

Il arrive d’ailleurs le plus souvent à les détecter en plus ou moins de temps. C’est une division « humaine » qui s’en occupe et non pas un robot qui serait optimisé pour détecter du cloaking. Les webmasters des pays de l’est ont développé des techniques assez complexes qui consistent à intégrer du javascript dans du javascript, et cela sous plusieurs niveaux afin qu’il devienne titanesque de repérer ces méthodes de cloaking. En résumé, le cloaking est clairement moins utilisé qu’autrefois mais reste toutefois d’actualité. Lorsque l’on s’intéresse au SEO, il est indispensable de connaître les techniques interdites sans quoi des erreurs seraient vite arrivées. Je vous déconseille d’utiliser le cloaking au même titre que la plupart des techniques dites Black Hat puisque même si votre site remontera temporairement sur certaines requêtes, il y a fort à parier qu’un jour ou l’autre vous vous ferez prendre et votre site se fera sandboxer (blacklister par Google).