- L’attribution, c’est l’éternel chantier des annonceurs. Ils sont encore nombreux à se reposer sur un modèle aussi limité que le last click. Ce n’est plus le cas de Michelin qui, accompagné par Havas DBI, est passé au multi-touch. Voici comment.
“Ce projet, c’est l’aboutissement de 6 ans de collaboration.” Thomas Chaigneau, partner chez Havas Data Business Intelligence, tient à mettre les choses en perspective au moment d’évoquer la migration de Michelin d’un modèle d’attribution last-click dont on connaît désormais tous les limites (il favorise les leviers bas de funnel, comme le search et le retargeting) à un modèle d’attibution multi-touch, qui valorise la contribution de l’ensemble des points de contacts médias.
Ils sont étonnamment encore nombreux, côté annonceurs, à continuer à utiliser le premier, qui pénalise fortement le display classique et le social. Au-delà d’un manque de maturité, c’est aussi, et souvent, un problème de tuyauterie. Côté Michelin, la bascule a ainsi coïncidé avec le changement d’ad-server, opéré courant 2022.
En migrant de Sizmek, technologie rachetée par Amazon, vers Campaign Manager, l’ad-server de Google, Michelin s’est enfin donné les moyens de réconcilier données ad-centric et données de conversion site-centric. “Ce qui n’était pas possible avec Sizmek, ce dernier n’étant pas linké avec Google Analytics”, précise Thomas Chaigneau.Ne restait plus qu’à ouvrir une instance Google Cloud Platform sur le compte de Michelin pour y intégrer ces deux jeux de données.
Pour la mise en place du modèle d’attribution data driven, deux options s’offraient à Michelin. Faire confiance à l’algorithme de Google, basé sur la valeur de Shapley avec les risques que l’on connaît. A savoir opter pour un modèle black-box et craindre que ce dernier ne favorise les environnements Google. Ou plancher sur un algorithme d’attribution custom.
“Nous n’étions pas à l’aise avec la première option, même si des tests menés dans le passé nous ont permis de valider la fiabilité de l’algorithme de Google”, témoigne Thomas Chaigneau. D’où la volonté d’Havas DBI de plancher sur son propre algorithme d’attribution. Un modèle custom qui a un autre avantage : “Michelin a pu injecter des données qu’il n’aurait pas forcément confiées au modèle de Google et a pu, en plus, mettre en place des règles d’attribution beaucoup plus souples que chez Google.”
L’approche validée, ne restait donc plus qu’à déployer tout cela.
Etape 1 :tout scorer
On est, dans ce cas précis, dans du test d’incrémentalité tout ce qu’il y a de plus basique. “On compare une population de leads et une population qui ne convertit et cela nous permet d’isoler certains éléments déclencheurs et de les pondérer”, illustre Thomas Chaigneau. C’est, par exemple, savoir que les internautes qui ont cliqué sur tel bouton ont X chances de plus de convertir. Il est donc important de valoriser les touchpoints qui amènent l’internaute vers ledit bouton. Dans le cas de Michelin, ce sont 140 variables qui ont été notées de 0 à 1.
Etape 2 : choisir l’algorithme
“On en a testé pas mal avant de pencher pour XGBoost, qui est open source”, révèle Thomas Chaigneau. L’algorithme a été testé sur deux ans d’historique de donnée Michelin puis fignolé au gré des tests. “L’enjeu, c’est de concilier performance, à savoir la rapidité du modèle, et la précision des résultats remontés.”
Etape 3 : sortir la donnée en mode “output”
Michelin ayant déjà une solution de dashboarding, celle-ci est désormais alimentée par le modèle d’attribution multi-touch via des tables GCP. “L’annonceur peut y comparer le nombre de conversions attribuées par les modèle last click et data driven, avec un niveau de granularité très poussé. Que ce soit au niveau de la campagne ou du produit”, précise Thomas Chaigneau.
Etape 4 : scaler
Après un POC en Allemagne, l’enjeu a été de déployer le dispositif dans les 40 pays où Michelin est présent… et de le faire sans transiger avec la réalité. “Chaque pays a ses spécificités, qu’il s’agisse des audiences ou des parcours de consommation. Il ne faut pas l’occulter”, prévient Thomas Chaigneau. L’agence a réalisé des clusters de pays aux comportements similaires. Ils étaient 15 en tout, pour lesquels le modèle a pu tourner spécifiquement.
Michelin n’a pas tardé à récolter les fruits de cette transformation. “On peut maintenant créer des segments dans GCP et les envoyer vers les principaux outils d’activation que sont DV 360 et Google Ads”, explique Thomas Chaigneau. Le périmètre analysé étant beaucoup plus large (organique, direct et paid media sont mieux valorisés), les performances de la campagne optimisée grâce à ce nouveau modèle s’en ressentent. Notamment sur les KPI upper funnel. “On a obtenu un incrément de 54% sur un item de considération versus un modèle au last click”, illustre Thomas Chaigneau. L’algorithme est, lui, mis à jour toutes les semaines, pour rester à la page.
Bien entendu et, alors que la donnée déterministe devient de plus en plus rare (les cookies tiers sont proscrits de Firefox et Safari, les internautes sont de moins en moins nombreux à consentir au tracking sur Chrome), le modèle prend de plus en plus une teinte probabiliste. Charge à Havas DBI de s’assurer qu’il reste, malgré tout, pertinent, en recourant notamment à des tests d’incrémentalité (geolift). “Un visiteur qui ne consent pas au tracking convertit quatre fois moins, tous secteurs confondus, en Europe. Les modèles probabilistes doivent le prendre en compte.”
Autre enjeu : ouvrir le modèle à de la donnée externe, comme l’évolution de la météo (qui a une incidence évidente sur les ventes de certains types de pneus). Et pourquoi pas compléter le dispositif avec d’autres approches plus macro. Notamment du marketing mix modeling dont nous vous parlons pas mal sur Minted en ce moment. Michelin n’en fait, à date, pas. “On n’est pas sur la même temporalité, on serait plus sur des enseignements stratégiques, tous les trimestres, que sur du tactique, au jour le jour mais c’est une option”, reconnaît Thomas Chaigneau.
L’expert explore également la piste du “value based bidding”, pratique qui consiste à optimiser la diffusion d’une campagne média sur des KPI de valeur. Plutôt que de simplement regarder le volume de lead générés, on regarde la qualité de ces leads. C’est possible en intégrant, par exemple, la donnée de marge. Forcément aussi stratégique que confidentiel pour les 2 000 références produits concernées..
“On a recours à une formule qui permet d’anonymiser les données envoyées des servers de Michelin à ceux de Google.” Cela permet de s’adapter aux enjeux du business, qu’il s’agisse de faire du volume, pour écolier un stock, ou privilégier les produits à forte marge, quitte à sacrifier le volume. Et à chaque fois, optimiser le coût par lead cible (CPL). “Nous avons mis cela en place depuis 15 jours”, conclut Thomas Chaigneau.