Maurice Ndiaye, Partner chez Synomia
Maurice Ndiaye, Partner chez Synomia
La recherche d’insight reste encore aujourd’hui l’un des fondamentaux de la démarche marketing. Que l’on parle de parcours client, de taux de pénétration marché, de pricing, de distribution, de modèle économique, de produit, la pierre angulaire de ces approches reste l’identification du bon insight.
A l’image des pommes, des insights il y en a un nombre incalculable de variétés. Certains sont très macro, par exemple, sur le marché international des eaux aromatisées, le miel est considéré comme nourissant en Chine, à l’inverse des Etats-Unis où il est considéré comme hydratant. Tandis que d’autres sont très micro, par exemple, sur le marché de l’assurance vie, les CSP+ 25-49 ans habitant en ville sont 2 fois plus enclins à souscrire à un contrat en ligne que les autres catégories de la population.
En toute bonne logique, le bouleversement majeur introduit par la data, le digital et maintenant l’IA devrait permettre de repérer beaucoup plus rapidement ces signaux en actions concrètes. Cette fluidité entre l’identification des données consommateurs à analyser, la découverte de l’insight puis sa transcription en actions est néanmoins encore trop rare dans les organisations. Les explications se situent à différents niveaux.
La recherche d’insight doit conjuguer vitesse et précision, sans sacrifier l’un pour l’autre. Or le marché des acteurs de la data, le fuel de l’insight, s’est jusqu’à aujourd’hui scindé entre ceux qui ont investi dans les infrastructures (big data, temps réel, intégration et connecteurs), et ceux qui ont investi dans la technologie et la modélisation (NLP, NLU, reconnaissance d’image…).
Concomitamment, l’écosystème du market research a été le théâtre d’une vaste recomposition, notamment parce que la profession est fortement challengée par la vague technologique.
Les modèles économiques d’instituts, intensifs en capital humain et établis sur une proposition de valeur de collecte, sont chahutés par des technologies qui viennent “commoditiser” la data, qui devient accessible au plus grand nombre et ne suffit plus à elle seule à créer de la différenciation.
D’ailleurs, le changement de nom de la fonction d’études vers consumer knowledge au fil des ans est un révélateur de ce déplacement, avec pour ambition de revaloriser la fonction en lui apportant une valeur ajoutée forte et distinctive dans l’entreprise.
Toutes ces méthodes, héritées ou non de traditions historiques de recherche d’insights, sont potentiellement augmentées par la technologie, qui introduit plusieurs éléments :
– gestion de la volumétrie (en réalité plus un sujet technique que technologique)
– modélisation complexe : combinatoire inaccessible au cerveau humain, calcul de corrélations, modélisation de comportements ou segmentation multivariée…
– rapidité : la puissance de calcul permet aujourd’hui de réaliser des opérations complexes en quasi temps réel
– capacité de traiter de nouvelles sources de données : voix, image, comportement
Plus précisément, l’IA vient contribuer à l’enrichissement de la modélisation de l’information, pour essayer de systématiser l’identification d’une information, un comportement ou une opportunité qui ne serait pas visible à l’œil nu, ou demanderait un effort trop important d’analyse s’il était fait par un humain.
Reprenons la chaîne de valeur de la recherche d’insight :
Côté connaissance client, l’IA peut également permettre de produire des segmentations inédites, et à repérer des corrélations entre des actions d’achat par exemple, et des critères de base CRM (âge, panier moyen, historique de relation, géographie, CSP…).
Les barrières à l’implémentation de solutions d’IA dans la recherche d’insights sont de 5 natures différentes :
– Technique : la matière première pour une IA performante reste la donnée. Une donnée riche et propre est une condition sine qua non à la construction d’IA performantes. Et l’accès à ces données pose de vraies difficultés techniques : raccordement à des bases de données, gouvernance SI, exhaustivité des bases, maintenance et mise à jour des données.
– Technologique : si de nombreuses ressources sont aujourd’hui disponibles sur le marché (on pense évidemment à Tensorflow), il reste critique de bien comprendre la nature des traitements qui sont effectués sur les données. A la fois pour maîtriser l’effet « black box » (on parle souvent de l’explicabilité de l’IA), qui peut conduire à produire des modèles que l’humain ou l’expert métier ne saura expliquer ou interpréter.
– Méthodologique : en particulier lorsqu’il s’agit d’exploiter plusieurs gisements de données différents, l’importance de la rigueur méthodologique est considérable. De façon générale, il est très difficile d’éduquer un modèle sur des environnements de données trop hétérogènes. On préférera construire des modèles spécifiques à une source (définie par un format et un mode de collecte : déclaratif, spontané, à chaud, à froid…) pour la partie qualification et traitement. Ensuite seulement il sera possible d’exploiter les signaux détectés pour éventuellement réconcilier ces signaux, en prenant garde à la pondération. Par exemple, comment consolider l’information SAV provenant de 10000 tweets sur un an avec 250 verbatim de sondage post achat et un an de conversation de tchat service client. Ces 3 sources concernent bien le même département de l’organisation, le service après-vente, mais elles sont si hétérogènes dans leur nature et leur mode de collecte qu’il n’est pas possible de leur donner le même poids.
– Organisationnelle : de nombreux protagonistes sont potentiellement impliqués dans la réussite de la production d’insights. Responsables des environnements de collecte (service client, CRM, ERP…), département juridique (contraintes RGPD), prestataires techno/conseil (providers, instituts, agences), et évidemment utilisateurs métier. Il est important de bien identifier les rôles de chacun pour garantir la fluidité de chaque point de passage lors de la circulation de la donnée, et également de s’assurer de la bonne définition des livrables pour une utilisation réelle et efficace des résultats par les utilisateurs finaux.
– Humaine : l’intelligence artificielle est certes très puissante, mais ne peut se substituer à l’intelligence métier, du moins pas encore… L’intuition, le bon sens, le regard critique sont des composants essentiels à la bonne exploitation de l’IA dans les insights. Il faut regarder l’IA comme un moyen d’étendre le travail des experts, de soulager certaines tâches, d’accélérer certains processus et de donner accès à des informations difficiles à identifier. Cette dimension doit aussi être prise en compte pour faciliter l’acculturation des équipes, et leur bonne appropriation de ces nouvelles méthodologiques. Avant d’être data-centric, l’intégration de la technologie dans le quotidien de l’entreprise doit être user-centric, et prendre en considération la réalité opérationnelle des collaborateurs.
Première chose : contrairement à certaines idées reçues, il est peu efficace de se lancer à l’aveugle dans une exploration de données sans objectif. L’exploratoire oui, la sérendipité même, mais dans un contexte un minimum problématisé. Quel est le problème business auquel on cherche à répondre : la rentabilité, la croissance, la préférence de marque, la productivité…
En fonction de la nature du problème on ciblera plus facilement une typologie de données, une méthode de collecte, une modalité de traitement, un format de livrable.
Deuxième sujet, l’accessibilité des données : à part pour appréhender des sujets de niche (ce qui est parfois le cas en B2B), rien ne sert de commencer par des dispositifs trop ambitieux qui reposent sur des données difficiles d’accès, compliquées à nettoyer, chères ou sensibles. Il existe souvent des gisements de données, à l’intérieur ou à l’extérieur de l’entreprise, qu’il est relativement facile de récupérer.
Le nerf de la guerre, le financement : adopter des processus qui embarquent des technologies nouvelles pose à court terme la question du financement, même si à court ou long terme on doit parvenir à créer de la valeur. Soit par la productivité soit par l’impact. Comme souvent, un sponsorship au plus haut niveau et la sanctuarisation de budget sur des expérimentations technologiques est un facteur clé de succès.
Un autre phénomène souvent observé, qui peut conduire un projet de bascule à sa perte : à quel point cherche-t-on un passage à l’échelle et une automatisation? La réalité est que peu de projets sont industrialisables facilement, et les process de production d’insights ne font pas exception à la règle. Ne cédons pas à la tentation de produire un cahier des charges pour un protocole multisource CRM x call center x réseaux sociaux x emails qui produit une segmentation en temps réel, de l’alerting pour les commerciaux sur des opportunités, et des recommandations automatiques d’offres. Ce type de dispositif très complet n’est aujourd’hui à la portée que de peu d’entreprise, et au prix de nombreux prérequis (architecture SI, qualité des données, spécifications de use cases métiers…).
Enfin, il est indispensable de bien mettre à plat les workflows en place dans l’organisation, aussi bien pour éviter les angles morts et écueils méthodologiques, que pour évaluer les frictions potentielles en termes de compétences et de résistance au changement.
En substance : être lucide sur l’apport et la nature de l’IA, commencer par des use cases à la portée de l’organisation, et surtout, prendre soin d’embarquer les collaborateurs. Dit autrement, faire preuve de réalisme, de pragmatisme, et d’empathie, trois qualités qui deviennent plus que jamais essentielles dans un environnement marketing constamment chahuté par la technologie.
par Maurice Ndiaye
Et vous, qu’allez-vous pouvoir développer avec l’IA dans votre métier, votre entreprise ? 2 jours pour le découvrir !