+ 33 6 81 51 67 47 contact@digitaleez.fr

Par manque de confiance, vouloir être trop précis finit par vous faire perdre de vue la « big picture » (photo par Vadim Gromov sur Unsplash)

Jusqu’où faut-il analyser les données ?

Le problème avec les données de la web analyse, c’est qu’il y en a trop ! Trop, partout, tout le temps ! Le moindre tag Google posé sur une page web peut générer des millions d’informations avant que vous n’ayez fini de faire un tour sur vous même ! Alors pour analyse autant de données, il faut du temps, beaucoup de temps. Et de la précision ! D’où un travers extrêmement courant de la web analyse : celui de vouloir avoir l’information « parfaite », « exacte », « au millimètre près » afin d’atteindre un certain niveau de « confiance ».

Voilà qui devrait éveiller votre méfiance : vouloir atteindre la perfection en web analytics, sous prétexte que l’on parle chiffres, est totalement illusoire et vous fera perdre votre temps !

5 raisons pour lesquelles vous devriez faire confiance rapidement à vos données

En réalité, nulle besoin de déployer une armada de data-scientists pour exploiter rapidement et efficacement vos données, même si la profondeur de votre analyse demeure en surface. Au contraire, il existe de nombreuses informations disponibles là, juste sous vos pieds, importantes et très utiles, qu’il suffit de vous baisser pour en profiter. Les datas, comme beaucoup de chose par ailleurs, n’ont pas nécessairement besoin de toujours être creusées en profondeur pour en extraire la substantielle moelle.

Les web analytics, d’abord,constituent, par défaut, une source de données très fiables

Pensez à la télévision et à ses archaïques panel de téléspectateurs. Vous trouvez qu’ils sont précis ? En France, on mesure l’audimat avec des échantillons de quelques milliers personnes sur plusieurs millions. Ce n’est pas beaucoup, mais ça suffit à beaucoup de marques d’investir des budgets faramineux en publicité sans se tromper.

Or, les data du web sont mille milliards (au moins) de fois plus précises que cela. Ne pas prendre en compte cette incroyable précision naturelle serait comme de croire qu’un mètre gradué serait moins précis que la longueur de votre pas.

Les données macros que l’on peut rapidement récolter peuvent déjà vous donner de bons indicateurs

Faut-il passer des semaines entières, voire des mois, à générer des rapports ? Ou bien, faut-il aller vite et produire des résultats même si on a pas creusé à fond le sujet ? D’après Avinash Kaushik, dans Web Analytics 2.0, il existe naturellement énormément de données très facilement accessibles que l’on peut exploiter rapidement sur un site web. Nul besoin de les appronfondir et des les examiner sous toutes les coutures pour les valider. Un premier dégrossissage dans les données peut permettre parfois rapidement de trouver des leviers d’actions (par exemple, trouver des sites sources vous apportant beaucoup de trafic, ou mesurer le taux de rebond de vos landing page).

Traiter rapidement le bas de l’entonnoir

Il y a des manières intelligentes d’aborder les données et comme tout bon marketeur, vous voulez certainement obtenir des quickwins pour pouvoir agir rapidement. Ne vous laissez pas alors « rembarrer » par votre spécialiste du web analytics qui aura toujours tendance à vous dire « Oh là là, oui, mais si on veut de la vraie info, il faut creuser. Ça va prendre du temps ! » Vraie, cette assertion mésestime toutefois la réalité du bas de votre entonnoir. Comme l’a démontré Avinash Kaushik, c’est dans la profondeur du tunnel (désolé de cette image scabreuse) que l’on peut trouver rapidement les meilleurs insights. Pas besoin d’aller creuser ailleurs. Comprendre où fuitent vos internautes dans le tunnel de commande peut être rapidement trouvée et s’avérera précieux pour trouver des parades. Alors, pour avoir des données exactes, il faut du temps oui, mais pas toujours !

Faire confiance à son outil

La tentation est grande chez certains de rouler avec deux outils de web analytics. Sous prétexte que le premier pourrait fournir des résultats biaisés (ce qui est fondamentalement vrai chez GA, puisque pour beaucoup de données, il extrapole), choisir un autre outil permettrait de « croiser les flux » et de tomber sur la vérité vraie des chiffres. Ô, là encore, grande illusion ! Ne perdez pas de temps à serrer les vis et les boulons partout en installant une deuxième solution. Déjà qu’il vous faudra pas mal d’efforts pour maintenir la première, vous embourber avec une autre ne ferait que vous alourdir et faire perdre votre réactivité.

Ne pas chercher la vérité absolue

Cette règle n’est pas valable que pour les web analytics, mais encore une fois, elle rappelle un précepte bien connue : à un moment donné, le jeu n’en vaut plus la chandelle. Dit plus scientifiquement, l’effort consenti pour atteindre à la vérité atteint toujours un seuil disproportionné par rapport au bénéfice. Si vous mesurez la hauteur d’un arbre pour le transformer en planches, avez-vous vraiment besoin de savoir s’il fait 13,241 m ou 13,253m ? Non. Un chiffre après la virgule suffira. Ne vous obstinez pas en vain.

Conclusion

Se concentrer sur l’essentiel, être réactif, rapide, et parfois imprécis, ne signifie pas pour autant travailler avec de mauvaises données. Comme je l’expliquai dans les 5 fondamentaux de la web analyse, maintenir son plan de taggage à jour pour pouvoir travailler sur des données « propres » est indispensable. Imprécision ne veut pas dire précipitation ou manque de recul, cela signifie simplement pouvoir émettre des hypothèses basées sur des probabilités d’exactitude. Rien ne vous interdit d’aller toujours au fond des chose. L’important reste de savoir faire la part des choses entre l’urgent, l’important et la précision. Mais ça, c’est notre job !