Comment mettre en place des modèles prédictifs pour votre marketing ?

Les modèles prédictifs apportent des bénéfices tangibles pour la performance marketing. Que ce soit l’optimisation des revenus ou des investissements publicitaires, le retour sur investissement est tangible. Mais quelle méthode employer, quels écueils, quels sont les facteurs clés de succès ? Au travers de deux cas d’usage, un opérateur télécom et un constructeur automobile, Julien Samarcq et Marc Mironneau détaillent point par point la mise en place de modèles prédictifs.

Le 23 juin 2021, Julien Samarcq, le directeur de la practice digital Data et Marc Mironneau, manager au sein de la practice digital Data d’Axys consultants ont partagé lors d’un webinaire deux retours d’expérience de l’application de modèles prédictifs par deux directions marketing et, tout au long de ce workshop en ont détaillé les facteurs clés de succès.

Le premier cas est la mesure et identification du risque à la souscription d’un opérateur télécom. Les modèles mis en place ont pour objectif d’aider les collaborateurs à anticiper le risque d’impayés et de fraude ou d’escroquerie lors d’un nouvel abonnement. Le second cas d’usage porte sur l’optimisation du média planning pour un grand constructeur automobile.

Dans les deux cas, ce marketing de la performance repose sur l’utilisation d’algorithmes et de données issues de multiples sources avec un processus itératif permanent pour optimiser l’acuité de la prédictivité.

Comment réduire le risque à la souscription pour un opérateur : un exemple concret

Pour le premier cas, avant toute chose, il faut bien entendu analyser le risque financier. Sur un abonnement avec un modèle d’engagement à 8 € par mois sur 24 mois et un mobile à 220 € au lieu de 459 € sans engagement. S’il y a un risque de défaillance dans les 24 Premiers mois, cela représente 192 € de perte en cas de défaut de l’abonné. Dans l’hypothèse où il s’agit d’un fraudeur, le coût du téléphone est lui aussi pris en compte, avec comme résultat une perte de 412 € pour l’opérateur. Pour se prémunir de ce risque, l’opérateur peut déployer des actions variées :

  • Orienter le client vers un moyen de paiement sécurisé (ex : 3D secure)
  • Orienter le client vers un produit moins cher
  • Demander une garantie au client
  • Fixer une date de prélèvement optimale

« Dans ce cas d’usage, l’objectif de l’intervention était à la fois d’identifier les clients à risque et dans un second temps identifier les clients potentiellement frauduleux. Pour réaliser cet objectif, nous avons mis en place un score de fragilité économique et de risque frauduleux. Une fois la modélisation réalisée, nous avons automatisé les contre-mesures associées au niveau de risque pour chacun », explique Marc Mironneau.

Point de vigilance : éviter une surpondération du niveau de risque pour ne pas nuire à l’activité commerciale de l’opérateur en éliminant trop de souscripteurs potentiels et impacter les volumes de ventes.

Deux critères à prendre en compte dans l’analyse de risque

Dans la mise en place de l’analyse de risque il faut diminuer la subjectivité des conseillers de la cellule risque et fraude envers les différents souscripteurs et atteindre une pondération relativement homogène entre conseillers et maintenir cette homogénéité dans le temps. « Nous nous sommes aperçus qu’en fonction de la période et de la saison les souscriptions étaient plus ou moins ouvertes ou fermées. La modélisation doit permettre de garantir un taux homogène tout au long de l’année et indépendamment des équipes qui l’utilisent », prévient Marc Mironneau.

Quel contexte et quel process ?

En entrée, les canaux de souscription aux abonnements sont multiples : environ 70 % des demandes sont retenues et 30 % rejetés pour impayés. L’objectif est d’abaisser le niveau de relance pour impayé. « Dans un second temps, au terme de ce plan de relance, nous avons 3 à 4 % d’impayés, dont 1 % pour fraude. Pour abaisser ce taux, il nous fallait identifier les souscripteurs à contrôler et dans un second temps augmenter et fiabiliser le scoring de prédiction, pour faire plus de ventes avec moins d’abandons des souscripteurs », détaille Marc Mironneau qui rappelle qu’il fallait veiller à préserver les intérêts commerciaux de l’opérateur en mettant en place une corrélation entre les contre-mesures les plus contraignantes et les scores de risque le plus élevé.

Comment anticiper la performance marketing du média planning d’un constructeur automobile

Axys Consultants accompagne depuis trois ans un constructeur automobile sur l’ensemble de sa stratégie data-driven : mesure, mise en place de tableaux de bord. Dans ce contexte Axys Consultants a mis en œuvre ce process prédictif en s’appuyant sur un jeu de données accumulé depuis trois ans. «  L’ambition posée est celle d’un passage d’un modèle d’analyse comparative à un modèle d’analyse prédictive pour déterminer des objectifs de campagne en fonction de paramètres externes, et ce dans un but très simple : optimiser le média planning », explique Julien Samarcq qui poursuit, « Aujourd’hui, nous accompagnons les clients avec des instances de gouvernance mensuelle, on configure les objectifs, on compare par rapport à une année ou une période et on définit avec le client en fonction de campagnes etc. Demain, à l’aide de ces paramètres et sources de données, nous pourrons anticiper des volumes pour optimiser le médiaplanning. Pour réaliser cela, nous avons mis en œuvre une démarche en quatre temps :

  • Cadrage : définir le besoin, l’objectif, le KPI à identifier et à prédire
  • Évaluer les jeux de données : sont-ils suffisants ?
  • Les données récupérées sont-elles liées à la problématique posée
  • Choisir le bon outil pour optimiser la prédiction.

Comment choisir son algorithme

L’évaluation de la donnée, le croisement et le nettoyage s’est effectuée avec l’ETL Alteryx (Extract, Transform, Load) pour ensuite déterminer le bon workflow. Dans ce cadre, l’étape la plus importante est celle de la sélection de machine learning et l’entraînement de l’algorithme, ici en python. Une fois l’algorithme sélectionné, il faut le déployer pour prédire la fragilité d’un client. “En datascience c’est un cas de classification binaire, rappelle Marc Mironneau. Nous avons retenu l’algorithme ensembliste, « random forest » qui permet d’avoir une explicabilité du modèle et l’importance de chacune des variables sur la prédiction.” Le Random forest utilise un ensemble arbre de décision indépendant qui chacun donne un résultat moyen et l’ensemble des prédictions moyennes sont robustes.

Une fois l’algorithme sélectionné, il faut déterminer la mesure de performance de l’algorithme au regard de l’objectif métier. Il est important de bien le choisir, car si on a un jeu de donnée qui révèle des difficultés sur le score de risque de fragilité, il peut y avoir une disproportion entre fragile et non fragile. Si par exemple, le jeu de données a 90 % de non fragiles, il peut en résulter une prédiction déséquilibrée, de facilité avec une classification à 100 % en non fragile. IL faut donc des métriques pour border cela.

Point de vigilance : penser à surveiller le “sur apprentissage” de l’algorithme, à savoir son incapacité à généraliser efficacement sur de nouvelles données l’apprentissage effectué. Il y a des mesures à déployer pour cela connue par les data-scientists.

Une fois cela fait, la mise en production de l’algorithme dans le workflow du processus métier est réalisée avec une validation itérative par les métiers de la pertinence de la solution mise en œuvre.

Préparer le jeu de données pour optimiser l’algorithme

Pour que l’algorithme ait une efficacité optimale, le traitement du jeu de donnée est crucial pour identifier la meilleure formule. Pour ce faire le premier ingrédient est celui des données issues de l’interne (donnée sociodémo, comportementale, les données financières etc.)

Dans un second temps, il faudra utiliser le “feature engineering”, qui consiste à identifier les variables cachées, mais pertinentes pour le modèle. Par exemple, en utilisant une adresse e-mail, extraire le nom de domaine permet de créer une variable sur une base de variables existantes. Les données issues de l’Open Data enrichissent ensuite le modèle, par exemple en utilisant les données macro de l’Insee.

Nettoyer les données : il faut ensuite traiter données manquantes, par exemple en utilisant la moyenne du jeu de donnée concerné que l’on impute au souscripteur pour lequel ces variables sont manquantes. Enfin, les variables quantitatives sont passées en variables qualitatives par un processus de dummification.

Enfin, pour finaliser la construction du dataset, il faut alors tester les corrélations et opérer les tests statistiques pour réduire le nombre de variables tout en maintenant les performances. Autrement dit, réduire le jeu de données tout en gardant sa pertinence afin de réduire les temps de calcul.

Quels facteurs clés de succès pour déployer un marketing prédictif

“Pour bien prédire, il faut savoir ce que l’on veut prédire”, rappelle Julien Samarcq. “Dans le cas du constructeur automobile, on s’inscrit dans une démarche de performance sur un périmètre précis en se focalisant sur une campagne, ici une campagne 100 % digitale pour plus de simplicité.”

Ensuite, quels indicateurs prédire ? Plutôt du lead qualifié, donc issu du bas de funnel (BOFU) qualifié par des demandes de stock, de demandes de véhicule etc.

Avec quelles données ? On capitalise sur les données historiques, de type plan média national et local, social média, GA4 et open-data liée au Covid et tout cela sur une fenêtre mensuelle, qui correspond le mieux à l’ajustement du média planning du client. Si cette première phase est bien réalisée, il est plus simple d’avancer sereinement.

Déterminer les sujets d’étude : comment l’opérateur définit-il un bon ou un mauvais payeur, à partir de quelle ancienneté, sur quelles durées, faut-il attendre pour le qualifier, une personne qui a généré un impayé au cours de sa vie est-il un mauvais payeur ? Un prélèvement SEPA peut générer une erreur technique, ce qui entre en ligne de compte.

Point de vigilance : circonscrire précisément le sujet car la définition métier va déterminer la capacité de prédiction. Il faut à la fois définir précisément le périmètre et éviter les biais de sélection. Dans le cas de l’opérateur télécom, la difficulté consiste bien à déterminer des fraudeurs avérés.

Valider son historique de données et leur pertinence

Une fois cadré, il faut valider l’historique et la pertinence des données. Pour l’historique du constructeur automobile, le lead est bien l’objet final depuis des années, restait à ajouter les éléments contextuels pour affiner l’analyse. : quels leviers, quels objectifs, quels partenaires, quels formats ? La granularité associée au lead, (dates, modèles) et les métriques liées au social média. Pour être plus pertinent, il fallait aussi mesurer l’impact du Covid sur les prises de RDV.

À l’identique pour l’opérateur télécom, on s’appuie sur deux ans d’historique pour se prémunir des variations saisonnières. Nous avions une centaine de cas de fraude, ce qui suscite un déséquilibre et un biais dans l’algorithme pour compenser ce biais, nous avons eu recours à la méthode de sur et sous échantillonnage et utilisé du clustering pour mieux évaluer les cas de fraudes avec une aide complémentaire. Concrètement :

  • On ordonne les fraudeurs et non fraudeurs par clustering
  • On identifie les clusters à risque et on génère une alerte
  • On apparie ce cluster à un process métier pour remonter l’alerte
  • On enrichit le jeu de donnée avec des IRIS (Îlots regroupés pour informations statistiques) qui maille au niveau du quartier

Enrichir, tester, réentraîner

Le prédictif est un travail itératif : il faut toujours mesurer les résultats à la réalité. Les performances de l’algorithme sur trois mois de tests ont révélé des tangibles imprécisions, liées à un déséquilibre des données de certains partenaires et ont nécessité un réajustement de la sélection des données pour entamer un nouvel entraînement afin de mesurer les écarts.

Dans le cas de l’opérateur, cela est passé par une réduction des données à la fois pour des imprécisions et un traitement trop lourd. Opérable par toutes les équipes, il a fallu injecter des data plus granulaires (issu de l’open data) en passant du niveau de la ville au niveau du quartier pour compenser la perte de variable.

Ne pas automatiser de manière aveugle et faciliter l’interface pour les métiers

 

Pour complexe que soit le marketing prédictif, son utilisation doit être la plus simple possible pour les collaborateurs métiers. Le score obtenu doit venir éclairer les équipes métiers et être facile à intégrer pour que cela suscite l’adhésion. Dans la mesure du score de fragilité, un simple bouton permettait d’avoir le score des souscripteurs de la journée. En s’appuyant sur des ambassadeurs pour sensibiliser et former les membres de l’équipe, l’acceptation et l’utilisation sont maximales.

Point de vigilance : le score est un outil d’aide à la décision, pour accompagner l’analyse éclairée des équipes, c’est un facilitateur, qui apporte un gain de temps pour les équipes. Ce n’est pas un oracle absolu.

Point de vigilance : avant de passer à l’industrialisation, il faut être certain que le marketing prédictif réponde aux objectifs d’une part, et d’autre part s’assurer que les données des tests permettent de passer à l’échelle. À titre d’exemple, pendant la phase de confinement, les concessions ouvraient et fermaient de manière aléatoire, ce qui ne plaît pas à l’algorithme. De même, les évolutions du média planning perturbaient aussi l’algorithme.

Point de vigilance : s’assurer de la facilité à piloter l’outil de marketing prédictif. ll faut s’assurer que la mise en œuvre soit facile et « user friendly » avec une interface simple et fluide.  

Enfin, n’oublions pas que le machine learning est au service de l’humain, il faut piloter ce modèle prédictif et mesurer chaque mois les écarts pour optimiser et réentraîner le modèle.

Quels bénéfices pour le marketing prédictif ?

Pour la partie automobile, la démarche et la finalité sont claires : optimiser le média planning. La direction marketing a un volume de leads à faire à l’année. Dans le cadre du marketing prédictif, il faut tester plusieurs scénarios pour identifier le meilleur et ainsi optimiser le média planning. Le bénéfice immédiat porte bien sur des leads plus nombreux et mieux qualifiés avec une dépense plus pertinente du budget publicitaire.

Pour l’opérateur télécom, les bénéfices sont :

  • Un meilleur taux de souscription
  • Moins d’impayés
  • Un process plus fluide
  • Un bénéfice induit sur l’image de l’opérateur
  • Une base client bonifiée avec une meilleure « lifetime value »

La mise en œuvre du marketing prédictif demande un travail rigoureux et patient. Mais, une fois abouti, cet outil d’aide à la décision un formidable levier pour gagner en performance opérationnelle et financière. À condition de respecter les étapes, et de ne pas faire une confiance aveugle à l’algorithme et garder le contrôle sur son pilotage.

Voir la vidéo

Présentation

Télécharger la présentation