Mission
Un acteur majeur de la cosmétique souhaite automatiser la collecte et la centralisation de la données de toutes les plateformes médias sur l'ensemble des 17 pays EME, afin d'avoir une vision à la fois globale et détaillée des performances des pays sur chaque canal d'acquisition activé.
Objectifs
Piloter les performances de la stratégie marketing full funnel déployée dans 17 pays au sein d’une même interface. Le client souhaitait mettre en place un outil lui permettant d’analyser, à la fois de façon globale et de façon plus fine les performances des leviers d’acquisition activés dans les pays .
Problématiques Business
- Identifier les leviers d’acquisition les plus rentables en termes de ROAS sur l’ensemble des marchés
- identifier les dispositifs best in class sur un marché pour le faire tester sur un autre marché
- Booster la rentabilité des dispositifs marketing mis en place dans les marchés
- Optimiser rapidement les performances des campagnes non-rentables
Comment essayait-il de les résoudre ?
Les équipes ont mis en place des process de collecte de données hebdomadaire auprès des marchés :
- Collecte des données de performance de chaque levier auprès des marchés
- Collecte des données de coût auprès des agences
- Analyse des données sur Excel ou Google Sheets
Difficultés rencontrées avant l’intervention Hanalytics ?
- Réception de plusieurs fichiers Excel à consolider
- Croisement à la main des données ad centric , site centric et customers centric
- Analyse siloté par marché avec une multitude d’interlocuteurs pour analyser les stats
- Indisponibilité des données tôt le matin
- Obligation de passer de plateforme en plateforme x le nombre de marché pour parfois des extractions de données à la main
- Difficulté de communiquer les données sous un format centralisé au sein de l’organisation
- Qualité de la donnée très altérée suite aux différentes manipulations manuelles
Solution proposée
Mettre en place un Data Pipeline solide et efficace via un ELT , permettant de :
- Consolider les données médias
- Systématiser la collecte des données directement des outils
- Croiser différents types de données Ad Centric, Site Centric , Customer Centric
- Automatiser le calcul des KPIs de performance prioritaire sur l’ensemble
- Mettre à la disposition des équipes ces KPIs via un outil de visualisation
- Automatiser la mise à jour de l’ensemble des chiffres au sein de l’outil de pilotage
Mise en oeuvre
La Data Pipeline est mise en place via le processus suivant :
- 1ère phase : Collecte des besoins métiers
- 2ème phase : Identification des sources de données
- 3ème phase : Définition des règles de calcul des KPis de suivis
- 4ème phase : implémentation de la solution proposée
Ingestion : l’utilisation de funnel.io pour automatiser la collecte de toutes les sources de données médias ( Facebook, Adwords, Criteo , Awin , Snapchat , Tiktok , Pinterest , Tradedoubler , Campaign Manger ) pour l’ensemble des 17 pays. Les données sont poussées dans BigQuery automatiquement tous les jours. Plus de 200 sources de données sont ingérées quotidiennement via Funnel, outil utilisé pour ingérer l’ensemble des données dans BigQuery .
Transformation : Automatisation du croisement et de la consolidation des données multi-sources en utilisant DBT. Suite aux échanges avec les équipes médias, les règles de calcul KPIs de suivis sont ensuite intégrées dans le pipeline pour fournir une table consolidée avec tous les KPIs prioritaires par pays.
Visualisation : Mise en place d’un outil de pilotage des chiffres permettant aux équipes d’avoir une vision globale et d’explorer les KPIs définis par marché.
Durée de mise en oeuvre
La mise en place du socle a duré 3 mois, avec la création d'un premier pipeline viable, solide et permettant de répondre aux attentes prioritaires des équipes.
Résultats obtenus