- Il y a un an de cela, on vous expliquait comment les éditeurs français commençaient à filtrer leurs partenaires programmatiques. On a décidé de prendre des nouvelles de l’un d’entre eux, Prisma Media, pour faire un nouveau bilan d’étape.
- Interview croisée avec Allan Jocalaz, directeur des opérations et du traffic chez Prisma Media, et Jean-Baptiste Pettit, CTO de Greenbids.
Minted. Où en êtes-vous, aujourd’hui, du sujet bid throttling ?
Allan Jocalaz. Nous y sommes allés progressivement, par vagues de tests qui se sont très bien passés. Cela nous a conduit à déployer la solution de filtrage de Greenbids au sein de l’ensemble des sites du groupe Prisma Media et de ceux que nous avons en régie. Soit une trentaine de sites au total.
Comment avez-vous procédé concrètement ?
Jean-Baptiste Pettit. Chaque déploiement commençait par un niveau de filtrage léger. Vous partagez à l’algorithme une donnée qu’on appelle le “true positive rate”, c’est-à-dire le pourcentage de bid entrants que vous êtes prêt à perdre.
S’il est de 1%, cela veut dire que le travail de filtrage est susceptible de vous couper de 1% des enchères que vous auriez pu obtenir. Attention, cela ne veut pas dire que vous pouvez vous couper de 1% de votre chiffre d’affaires puisque toutes ces enchères ne seront pas gagnantes.
Allan Jocalaz. Nous avons toujours commencé prudemment, en filtrant uniquement l’évident. Et, à mesure que l’algorithme de Greenbids se perfectionnait (ce dernier s’actualise toutes les 15 minutes, ndlr), nous allions de plus en plus loin dans le filtrage.
Nous avons commencé avec 15 à 20% des requêtes filtrées puis, en mai dernier, nous sommes passés à 40 à 50% sur notre site femme actuelle. Nous avons, depuis, appliqué ce ratio sur l’ensemble de nos sites. Sans baisse de revenus évidemment.
C’est même le contraire non ? Puisqu’en réduisant le volume de requêtes que vous envoyez à un SSP, vous réduisez également ses charges, les frais d’écoutes étant un gros poste de dépense, et que, ce faisant, vous lui permettez de bidder plus, tout en respectant son niveau plancher de marge…
Allan Jocalaz. Nous avons effectivement observé un gain sur le RPM de nos sites. Si on prend l’exemple de Femme Actuelle, la hausse est de 1 à 10%.
Jean-Baptiste Pettit. Au-delà de l’aspect que vous évoquez, il y a une autre dimension à prendre en compte. Le fait qu’un SSP, lorsqu’il “écoute” toutes les enchères, peut se permettre d’enchérir avec un niveau de marge très élevé et donc avec une offre moins intéressante pour l’éditeur, parce qu’il sait que sa publicité apparaîtra tôt ou tard.
C’est ce qu’on appelle la stratégie du “bottom feeder”, le fait de se contenter des restes. Sauf que lorsqu’on arrête de vous interroger sur 40 à 50% des enchères habituelles, vous pouvez moins vous permettre ce genre de stratégie.
Au-delà même des considérations économiques, qui varient tout de même énormément selon les cas de figure, je pense que c’est tout simplement sain de filtrer des choses inutiles.
Parce qu’il n’y a pas de raison qu’un SSP ait le droit d’apprendre sur l’inventaire d’un éditeur lorsqu’il ne participe pas. Si vous ne participez pas, vous ne méritez pas d’accéder à toutes les données, certaines très précieuses, qui sont disponibles dans prebid.
Cette stratégie est également vertueuse pour l’expérience utilisateur. Qui dit moins de partenaires appelés, dit un temps de chargement de la page à la baisse.
Allan Jocalaz. Effectivement, on a un gain de 10% du temps de chargement en passant de 20 à 40% de filtrage. Ce qui correspond à 1 seconde sur les temps de chargement plus lent.
C’est énorme quand on sait que les éditeurs en sont à grappiller des millisecondes pour améliorer l’expérience utilisateur et le SEO de le page. Sans compter que c’est aussi vertueux d’un point de vue monétisation puisque les “time out” baissent d’un point.
J’ajouterai que c’est un outil qui facilite plus facilement l’intégration de nouveaux partenaires puisque l’on fait confiance à Greenbids pour ne les solliciter que quand c’est utile. Avant, c’était plus fastidieux. On testait le nouveau partenaire sur un site, puis deux et ainsi de suite. Là on peut le brancher sur tout, sans impact pour l’UX s’il ne répond finalement quasiment jamais.
Jean-Baptiste Pettit. C’est pratique pour les éditeurs qui réalisent de fortes audiences dans des marchés secondaires. Comme les éditeurs anglo-saxons en Australie, par exemple.
L’outil leur permettra de n’appeler les partenaires locaux que pour les pages Web qui sont consultées depuis ces marchés. Idem pour les audiences mobiles d’ailleurs, qui concernent souvent des partenaires de monétisation hyper spécialisés. Faire ce filtrage permet d’avoir une configuration plus globale.
Et le carbone dans tout ça, ça donne quoi ?
Jean-Baptiste Pettit. Je ne préfère pas donner de quantités en tonnes car les chiffres peuvent varier selon les méthodes de calcul. Mais nous filtrons plus de 17,7 milliards d’ad calls par mois, rien que pour Prisma Media.
On enlève plus de carbone que la consommation annuelle des employés du groupe. C’est énorme et cela s’explique par le fait qu’on réduit l’impact des partenaires du groupe. Le fameux Scope 3.
Quelles sont les prochaines étapes ?
Jean-Baptiste Pettit. Aller plus loin dans le processus. Passer d’un produit qui agit au sein de prebid à un produit qui concerne toute la monétisation publicitaire de l’éditeur, adserver compris.
Cela permettrait, par exemple, à un éditeur qui a vendu en gré à gré une campagne qui préempte toutes ses impressions, de couper prebid. Les gains serait encore plus énormes.
Maintenant que nous accompagnons les annonceurs (via le SPO) et les éditeurs (via le bid throttling) sur ce sujet, la suite logique c’est d’avoir une offre pour les SSP. Concrètement, de les aider à faire du traffic shaping, soit le fait d’écouter en priorité les bid requests qui sont susceptibles de les intéresser, mieux qu’ils ne le font aujourd’hui.
Nous voulons aussi agir au niveau de prebid server, pour accompagner les wrappers server-side, qui ont eux aussi des coûts d’infrastructure énormes, sur le sujet.