Je partage :

Maurice Ndiaye, Partner chez Synomia

IA marketing: la contribution de l’IA dans la recherche d’insights, mythes et réalités

 

La recherche d’insight reste encore aujourd’hui l’un des fondamentaux de la démarche marketing. Que l’on parle de parcours client, de taux de pénétration marché, de pricing, de distribution, de modèle économique, de produit, la pierre angulaire de ces approches reste l’identification du bon insight.

 

A l’image des pommes, des insights il y en a un nombre incalculable de variétés. Certains sont très macro, par exemple, sur le marché international des eaux aromatisées, le miel est considéré comme nourissant en Chine, à l’inverse des Etats-Unis où il est considéré comme hydratant. Tandis que d’autres sont très micro, par exemple, sur le marché de l’assurance vie, les CSP+ 25-49 ans habitant en ville sont 2 fois plus enclins à souscrire à un contrat en ligne que les autres catégories de la population.

 

En toute bonne logique, le bouleversement majeur introduit par la data, le digital et maintenant l’IA devrait permettre de repérer beaucoup plus rapidement ces signaux en actions concrètes. Cette fluidité entre l’identification des données consommateurs à analyser, la découverte de l’insight puis sa transcription en actions est néanmoins encore trop rare dans les organisations. Les explications se situent à différents niveaux.

 

Le time-to-insight : une équation complexe

La recherche d’insight doit conjuguer vitesse et précision, sans sacrifier l’un pour l’autre. Or le marché des acteurs de la data, le fuel de l’insight, s’est jusqu’à aujourd’hui scindé entre ceux qui ont investi dans les infrastructures (big data, temps réel, intégration et connecteurs), et ceux qui ont investi dans la technologie et la modélisation (NLP, NLU, reconnaissance d’image…).

Concomitamment, l’écosystème du market research a été le théâtre d’une vaste recomposition, notamment parce que la profession est fortement challengée par la vague technologique.

Les modèles économiques d’instituts, intensifs en capital humain et établis sur une proposition de valeur de collecte, sont chahutés par des technologies qui viennent « commoditiser » la data, qui devient accessible au plus grand nombre et ne suffit plus à elle seule à créer de la différenciation.

D’ailleurs, le changement de nom de la fonction d’études vers consumer knowledge au fil des ans est un révélateur de ce déplacement, avec pour ambition de revaloriser la fonction en lui apportant une valeur ajoutée forte et distinctive dans l’entreprise.

L’IA pour faire quoi exactement ?

Toutes ces méthodes, héritées ou non de traditions historiques de recherche d’insights, sont potentiellement augmentées par la technologie, qui introduit plusieurs éléments :

– gestion de la volumétrie (en réalité plus un sujet technique que technologique)

– modélisation complexe : combinatoire inaccessible au cerveau humain, calcul de corrélations, modélisation de comportements ou segmentation multivariée…

– rapidité : la puissance de calcul permet aujourd’hui de réaliser des opérations complexes en quasi temps réel

– capacité de traiter de nouvelles sources de données : voix, image, comportement

Plus précisément, l’IA vient contribuer à l’enrichissement de la modélisation de l’information, pour essayer de systématiser l’identification d’une information, un comportement ou une opportunité qui ne serait pas visible à l’œil nu, ou demanderait un effort trop important d’analyse s’il était fait par un humain.

Reprenons la chaîne de valeur de la recherche d’insight :

  1. Sourcing de données : sur cette étape, la contribution de l’IA est aujourd’hui faible, il s’agit essentiellement d’un sujet méthodologique (quelles sources exploiter), et technique (comment récupérer efficacement l’information).
  2. Qualité des données : sur ce plan, des solutions d’IA peuvent venir apporter une vrai valeur ajoutée, en apprenant à détecter des incohérences. Par exemple des erreurs de saisie qui conduisent à des champs contenant des valeurs avec des ordres de grandeur délirant, ou des orthographes différentes d’une même information. Ou encore du bruit, c’est-à-dire une information non pertinente par rapport à l’homogénéité du reste du datastet. Et également des écarts sur les formats de données (désalignement de champs, problèmes d’encodage…).
  3. Traitement de la donnée : une partie du traitement est déjà exploitée pour le nettoyage, mais on s’intéresse ici à la modélisation de l’information post-cleaning. Comment traduire la donnée brute en donnée intelligible et exploitable de façon à mieux faciliter le travail d’interprétation. L’IA permet ici d’analyser le contenu de l’information selon des schémas de détection d’un certain nombre de signaux qui vont permettre de caractériser finement la donnée. C’est ici que l’on retrouve la reconnaissance d’image qui permet de tagger un visuel ou une vidéo par ce qu’il représente, la reconnaissance vocale, le traitement automatique du langage, la reconnaissance d’émotions (à partir du langage ou de la vidéo…).
  4. La modélisation de la donnée : une fois la donnée brute caractérisée, il faut l’organiser pour en faire émerger des phénomènes ou dynamiques qui vont pointer des dysfonctionnements, des comportements inédits, des opportunités. De façon imagée, ce sont comme des calques successifs projetés sur la data, qui une fois assemblées vont finir par dessiner de plus en plus précisément les motifs intéressants dans la donnée. Cet exercice peut-être très encadré : par exemple on croise le contenu d’une conversation avec la date à laquelle la conversation a eu lieu, le canal par lequel elle a été captée, et le profil des interlocuteurs pour comprendre la ventilation des sujets abordés selon ces différents critères de segmentation. On aboutit à des centaines voire des dizaines de combinaisons possibles, et des modèles statistiques permettent de retenir celles qui font apparaître des singularités. Mais il est également possible de mobiliser de l’IA, qui sur la base de situations précédentes lors desquelles on lui a appris le type de phénomène qui nous intéresse, va être en capacité de reconstituer de façon plus autonome la bonne combinatoire pour pointer les événements saillants. Dans la prédiction de churn, c’est précisément ce qu’il se passe : on donne à la machine une série de données avec de nombreuses variables associées à des clients qui ont quitté l’entreprise (ou non), de façon à ce qu’elle construise elle-même un modèle de prédiction. Lorsqu’un nouveau dataset se présente, elle saura avec un certain taux de précision déterminer la probabilité que tel ou tel client change d’opérateur par exemple.

Côté connaissance client, l’IA peut également permettre de produire des segmentations inédites, et à repérer des corrélations entre des actions d’achat par exemple, et des critères de base CRM (âge, panier moyen, historique de relation, géographie, CSP…).

  1. Dernière étape : la recommandation. Comment aller plus loin que l’identification et la description de phénomène, pour enchaîner directement sur une prescription d’action. Là encore, une option est la scénarisation d’action via des arbres d’intention : pas besoin d’IA, et on peut déjà arriver à un premier niveau d’automatisation : réponse automatique à des emails, personnalisation de contenus etc. Mais de nouveau, l’IA va venir enrichir les possibilités d’action et d’adaptation au contexte. Génération automatique de contenu, personnalisation d’offres, agent conversationnel…

Obstacles et limites

Les barrières à l’implémentation de solutions d’IA dans la recherche d’insights sont de 5 natures différentes :

– Technique : la matière première pour une IA performante reste la donnée. Une donnée riche et propre est une condition sine qua non à la construction d’IA performantes. Et l’accès à ces données pose de vraies difficultés techniques : raccordement à des bases de données, gouvernance SI, exhaustivité des bases, maintenance et mise à jour des données.

– Technologique : si de nombreuses ressources sont aujourd’hui disponibles sur le marché (on pense évidemment à Tensorflow), il reste critique de bien comprendre la nature des traitements qui sont effectués sur les données. A la fois pour maîtriser l’effet « black box » (on parle souvent de l’explicabilité de l’IA), qui peut conduire à produire des modèles que l’humain ou l’expert métier ne saura expliquer ou interpréter.

– Méthodologique : en particulier lorsqu’il s’agit d’exploiter plusieurs gisements de données différents, l’importance de la rigueur méthodologique est considérable. De façon générale, il est très difficile d’éduquer un modèle sur des environnements de données trop hétérogènes. On préférera construire des modèles spécifiques à une source (définie par un format et un mode de collecte : déclaratif, spontané, à chaud, à froid…) pour la partie qualification et traitement. Ensuite seulement il sera possible d’exploiter les signaux détectés pour éventuellement réconcilier ces signaux, en prenant garde à la pondération. Par exemple, comment consolider l’information SAV provenant de 10000 tweets sur un an avec 250 verbatim de sondage post achat et un an de conversation de tchat service client. Ces 3 sources concernent bien le même département de l’organisation, le service après-vente, mais elles sont si hétérogènes dans leur nature et leur mode de collecte qu’il n’est pas possible de leur donner le même poids.

– Organisationnelle : de nombreux protagonistes sont potentiellement impliqués dans la réussite de la production d’insights. Responsables des environnements de collecte (service client, CRM, ERP…), département juridique (contraintes RGPD), prestataires techno/conseil (providers, instituts, agences), et évidemment utilisateurs métier. Il est important de bien identifier les rôles de chacun pour garantir la fluidité de chaque point de passage lors de la circulation de la donnée, et également de s’assurer de la bonne définition des livrables pour une utilisation réelle et efficace des résultats par les utilisateurs finaux.

– Humaine : l’intelligence artificielle est certes très puissante, mais ne peut se substituer à l’intelligence métier, du moins pas encore… L’intuition, le bon sens, le regard critique sont des composants essentiels à la bonne exploitation de l’IA dans les insights. Il faut regarder l’IA comme un moyen d’étendre le travail des experts, de soulager certaines tâches, d’accélérer certains processus et de donner accès à des informations difficiles à identifier. Cette dimension doit aussi être prise en compte pour faciliter l’acculturation des équipes, et leur bonne appropriation de ces nouvelles méthodologiques. Avant d’être data-centric, l’intégration de la technologie dans le quotidien de l’entreprise doit être user-centric, et prendre en considération la réalité opérationnelle des collaborateurs.

Comment démarrer ?

Première chose : contrairement à certaines idées reçues, il est peu efficace de se lancer à l’aveugle dans une exploration de données sans objectif. L’exploratoire oui, la sérendipité même, mais dans un contexte un minimum problématisé. Quel est le problème business auquel on cherche à répondre : la rentabilité, la croissance, la préférence de marque, la productivité…

En fonction de la nature du problème on ciblera plus facilement une typologie de données, une méthode de collecte, une modalité de traitement, un format de livrable.

Deuxième sujet, l’accessibilité des données : à part pour appréhender des sujets de niche (ce qui est parfois le cas en B2B), rien ne sert de commencer par des dispositifs trop ambitieux qui reposent sur des données difficiles d’accès, compliquées à nettoyer, chères ou sensibles. Il existe souvent des gisements de données, à l’intérieur ou à l’extérieur de l’entreprise, qu’il est relativement facile de récupérer.

Le nerf de la guerre, le financement : adopter des processus qui embarquent des technologies nouvelles pose à court terme la question du financement, même si à court ou long terme on doit parvenir à créer de la valeur. Soit par la productivité soit par l’impact. Comme souvent, un sponsorship au plus haut niveau et la sanctuarisation de budget sur des expérimentations technologiques est un facteur clé de succès.

Un autre phénomène souvent observé, qui peut conduire un projet de bascule à sa perte : à quel point cherche-t-on un passage à l’échelle et une automatisation? La réalité est que peu de projets sont industrialisables facilement, et les process de production d’insights ne font pas exception à la règle. Ne cédons pas à la tentation de produire un cahier des charges pour un protocole multisource CRM x call center x réseaux sociaux x emails qui produit une segmentation en temps réel, de l’alerting pour les commerciaux sur des opportunités, et des recommandations automatiques d’offres. Ce type de dispositif très complet n’est aujourd’hui à la portée que de peu d’entreprise, et au prix de nombreux prérequis (architecture SI, qualité des données, spécifications de use cases métiers…).

Enfin, il est indispensable de bien mettre à plat les workflows en place dans l’organisation, aussi bien pour éviter les angles morts et écueils méthodologiques, que pour évaluer les frictions potentielles en termes de compétences et de résistance au changement.

En substance : être lucide sur l’apport et la nature de l’IA, commencer par des use cases à la portée de l’organisation, et surtout, prendre soin d’embarquer les collaborateurs. Dit autrement, faire preuve de réalisme, de pragmatisme, et d’empathie, trois qualités qui deviennent plus que jamais essentielles dans un environnement marketing constamment chahuté par la technologie.

 

par Maurice Ndiaye

Et vous, qu’allez-vous pouvoir développer avec l’IA dans votre métier, votre entreprise ? 2 jours pour le découvrir !