Skip to content

L'oeil de l'expert avec Robin Monnier - AI

🕗 4 min read ・Une vue de l'intérieur du rôle de la data science  au cœur de la plateforme de promotions personnalisées de relevanC, Lead Data Scientist, Robin Monnier.

Robin Monnier Expert Eye

Une vue de l'intérieur du rôle de la data science  au cœur de la plateforme de promotions personnalisées de relevanC, Lead Data Scientist, Robin Monnier

li_timer-reset 5 min read

Traditionnellement, les promotions personnalisées reposaient sur une large segmentation client. Comment assurez-vous un ciblage et une personnalisation plus efficace des offres promotionnelles à la fois pour les enseignes et les industriels ?

Nous utilisons les dernières avancées en IA afin de prédire avec précision l’appétence des clients aux offres promotionnelles grâce à l’historique d’achat des clients et l’historique de ventes des produits. De plus, nous donnons la possibilité à nos fournisseurs de restreindre le périmètre de clients ciblés par nos algorithmes par la création de segments personnalisés. C’est en combinant ces deux approches, expertises métiers et IA, que l’on parvient à proposer les meilleures offres aux clients tout en remplissant les objectifs marketing des fournisseurs (fidélisation des clients actuels, recrutement de nouveaux clients ou réactivation de clients abandonnistes).

Quels défis techniques avez-vous rencontrés pour développer un modèle permettant de combiner la prédiction de l’appétence client avec les segments personnalisés des fournisseurs ? Comment les avez-vous résolus ?

La promotion personnalisée pose des défis en IA que l’on ne retrouve pas nécessairement dans d’autres applications, car il est difficile d’évaluer la performance des modèles avant leur exploitation en production. Si une nouvelle version du modèle prédit qu’un client est appétent à une offre d’une campagne passée, on ne peut pas savoir si le client l’aurait effectivement utilisé car ce client n’a pas réellement reçu le coupon !

Dans ce contexte, on a besoin de mesurer l’impact d’un modèle sur des campagnes réelles en le déployant en production dès que possible. C’est pourquoi, nous avons développé des outils qui nous permettent d’utiliser plusieurs algorithmes en parallèle (ou plusieurs versions d’un même algorithme) et de comparer leurs performances en temps réel. Cela nous permet également de déployer progressivement un modèle, en lui allouant une part de plus en plus importante de clients, et ainsi minimiser les risques à la fois pour les fournisseurs et les enseignes.

Cette nouvelle mise à jour permet également d'attribuer à chaque offre un objectif marketing précis. Pouvez-vous expliquer comment le modèle adapte son algorithme en fonction de l'objectif (par exemple, maximiser les ventes ou réactiver des clients anciennement acheteurs de la marque) ?

Chaque fournisseur a sa propre définition des objectifs marketing usuels tels que le recrutement de nouveaux clients ou la fidélisation de clients déjà acheteurs. Par exemple, un fournisseur ayant un objectif de recrutement pourra préférer cibler les clients achetant des produits de gammes complémentaires aux produits de son offre, ou bien cibler les clients achetant des produits similaires de marques concurrentes. C’est pourquoi on a fait le choix de laisser la main au fournisseur de créer un segment de client personnalisé pour son offre, correspondant à ses propres critères marketing, grâce à un outil de segmentation très poussé.

Notre algorithme va ensuite choisir parmi les clients du segment personnalisé de l’offre, les clients les plus appétents en analysant un large éventail de variables explicatives, calculées à partir de l’historique d’achat du client et de ventes des produits. Ces variables donnent une description complète du comportement d’achat du client, aussi bien sur les produits de l’offre que sur les produits similaires d’autres marques, permettant à l’algorithme de s’adapter aux différents objectifs marketing.

Comment le système gère-t-il les situations où les données clients pour des produits spécifiques sont limitées ? Existe-t-il des techniques spécifiques pour traiter la rareté des données ?

Nous travaillons avec des fournisseurs dont l’objectif est de promouvoir de nouveaux produits, ou des produits saisonniers qui sont vendus sur une courte période chaque année. Pour ce type de produit, nous avons donc accès à peu d’historique d’achat, donc peu de données pour entraîner nos algorithmes. Dans ce cas là, on peut estimer l’appétence d’un client en analysant ses achats sur des produits similaires, des produits de même catégorie ou des produits de même marque.

De plus, pour les nouveaux clients de l’enseigne, ayant réalisé peu de paniers, on peut déterminer des clients au profil similaire grâce à des techniques de Collaborative Filtering, couramment employés dans les systèmes de recommandation. Ainsi, nous sommes toujours capables d’utiliser nos algorithmes sur de nouveaux produits ou de nouveaux clients, même si bien sûr les prédictions seront plus précises avec davantage de données.

Quelles mesures d'évaluation sont utilisées pour apprécier l'efficacité de l'approche de segmentation par produit et de mise en correspondance par IA ? Existe-t-il des techniques spécifiques pour l'interprétabilité du modèle ?

Pour évaluer la performance du modèle, on mesure sa précision moyenne (Average Precision en anglais), qui est une métrique standard en Machine Learning dans les problèmes de régression. D’un point de vue business, cela revient à comparer le taux d’utilisation des clients sur différents niveaux de scores d’appétences prédits par le modèle. Concrètement, un modèle performant doit avoir un taux d’utilisation très élevé sur les 100 meilleurs clients (dont le score d’appétence prédit est le plus élevé), un peu plus faible sur les 1000 meilleurs, encore plus faible sur les 10000 meilleurs, et ainsi de suite. Cela nous permet de nous assurer que le modèle a une bonne compréhension des clients et des offres. Nous avons pu constater un taux d’utilisation de plus de 90% sur les 100 clients les plus appétents, ce qui témoigne de la fiabilité du modèle !

Quelles sont les pistes de développement possibles pour le modèle d'IA ? Existe-t-il des algorithmes ou des techniques spécifiques que vous souhaiteriez explorer pour les futures mises à jour ?

Nous sommes aujourd’hui satisfaits des performances de notre modèle de prédiction des scores d’appétence, qui ont été excellentes depuis le début de l’année. Toutefois, nous visons constamment l'amélioration de notre produit. Pour cela, nous explorons plusieurs pistes de développement : optimiser l'allocation de budget entre deux promotions concurrentes, aider les industriels à améliorer les offres moins attractives selon notre algorithme, ou encore recommander des niveaux de budget et de date optimum pour chaque offre (la recommandation de budget par offre est déjà live sur la plateforme, nous l'améliorons en continue depuis son lancement cette année).


Cette démarche reflète notre engagement à toujours offrir une expérience promotionnelle optimale pour nos clients et utilisateurs, les enseignes du groupe et leurs fournisseurs. Récemment, lors d'un hackathon interne, nos équipes ont développé des idées prometteuses dans ces domaines!


Vous aimerez ces articles

Leave a Comment