You are on page 1of 7

L'analyse de données en marketing industriel

L'analyse de données
en marketing industriel

- Jean François PANSARD & Isabelle DUPRAT -

Si le marketing grand public utilise depuis longtemps les techniques d'analyse de données pour
compléter ses analyses quantitatives et qualitatives, le marketing industriel a jusqu'à présent
peu fait usage de ces techniques. Pourtant, en permettant de pratiquer une analyse des
données sans avoir à faire d'hypothèses préalables, le « datamining » a donné aux entreprises
vendant à l'industrie, qui ont fait l'effort de l’utiliser, des résultats tout à fait intéressants.
Cette note rappelle donc les principes du « datamining », présente ses principaux outils et
présente une illustration pratique de son utilisation.

Sommaire

1. INTRODUCTION__________________________________________________________ 2
2. APPROCHE CONCEPTUELLE DU « DATAMINING » ____________________________ 3
3. LES OUTILS DE « DATAMINING »___________________________________________ 4
3.1 Les arbres de décision ________________________________________________ 4
3.2 Les réseaux neuronaux________________________________________________ 5
4. CAS D’APPLICATION PRATIQUE DU « DATAMINING » _________________________ 6
5. CONCLUSION ___________________________________________________________ 7

JF. Pansard & I. Duprat Page 1 / 7 Pansard & Associés


L'analyse de données en marketing industriel

1. INTRODUCTION

Les méthodes quantitatives font désormais partie intégrante du marketing. Les


méthodes qualitatives, fondée sur l'interrogation individuelle du client pour connaître ses
attentes, sont depuis longtemps complétées par des techniques permettant de quantifier les
variables décrivant différents aspects du marché. L'approche intuitive n'est plus considérée
comme suffisante pour servir de base à une action commerciale efficace. Ceci provoque
d'ailleurs fréquemment des conflits entre les commerciaux, généralement tournés vers l'action,
et les hommes de marketing, de tempérament plus analytique, qui considèrent que l'action n'a
de sens que si elle est fondée sur une analyse systématique.

Le marketing grand public utilise depuis très longtemps les techniques d'analyse de
données. La vente par correspondance a ainsi utilisé d'abord les techniques statistiques puis le
datamining. Celui-ci permet de faire une recherche dans les données sans avoir à faire
d'hypothèses préalables. Il est particulièrement adapté au ciblage des actions de prospection en
identifiant les profils de clients qui ont un comportement positif lors des actions de promotion.

Le marketing industriel a jusqu'à présent peu fait usage de ces techniques. Les raisons
sont multiples. On sait que la culture marketing des firmes industrielles est plutôt concentrée sur
le produit que sur le client. Les services marketing et commerciaux de ces firmes sont rarement
composés de personnes ayant l'expérience de l'analyse méthodique des données. L'idée sous-
jacente est que chaque client est un cas particulier et que les tailles des fichiers sont
insuffisantes pour se prêter à une analyse systématique.

On constate néanmoins que les entreprises vendant à l'industrie qui ont fait l'effort
d'utiliser des outils d'analyse modernes ont obtenu des résultats tout à fait intéressants.

Pour le lecteur qui n'est pas familier avec ce domaine nous rappellerons rapidement en
quoi consistent les outils actuels de datamining. Puis nous examinerons un exemple
d'application par une firme faisant des ventes à l'industrie.

JF. Pansard & I. Duprat Page 2 / 7 Pansard & Associés


L'analyse de données en marketing industriel

2. APPROCHE CONCEPTUELLE DU « DATAMINING »

Le concept anglo-saxon de « datamining » n'a pas de traduction parfaitement


satisfaisante. On pourrait dire qu'il s'agit d'une exploration non directive dans les données afin
de découvrir un sens caché. La différence avec les techniques statistiques habituelles est donc
que celles-ci supposent une hypothèse préalable que les tests permettent de valider.

Pour illustrer l'approche statistique supposons une entreprise de vente par


correspondance qui examine sa clientèle. Elle veut savoir si les habitants des zones rurales
consomment davantage de chaussettes de laine que les habitants des villes. Elle va d'abord
calculer les moyennes de consommation de ces deux échantillons puis elle effectuera un test du
KHI 2 pour vérifier si l'écart de moyennes est statistiquement significatif.

Rappelons que le test du KHI 2, pratiqué depuis le début du XXe siècle, a pour objet de
mesurer l'écart des moyennes d'une variable dans deux échantillons d'une population pour
vérifier si cet écart est statistiquement significatif. Ce test est notamment utilisé dans les essais
cliniques en médecine pour vérifier l'impact d'un médicament sur l'état de santé d'un échantillon
de la population.

L'entreprise part donc d'une hypothèse qui est que la zone d'habitation a un impact sur
le type de chaussettes portées. Puis elle vérifie cette hypothèse par un test statistique.

Avec les techniques de « datamining », il n'est pas nécessaire de faire une hypothèse
préalable. On se contente d'accumuler dans le fichier le plus grand nombre possible de
variables potentiellement pertinentes, puis on lance l’exploration. L'outil informatique va balayer
systématiquement toutes les hypothèses puis extraire celles qui sont pertinentes. Ceci doit
permettre de faire apparaître des relations entre variables qui n'étaient pas nécessairement
identifiées par l'analyste.

Ce sont justement ces relations non intuitives qui ont le plus de valeur pour la firme qui
cherche à comprendre le comportement de ses clients.

JF. Pansard & I. Duprat Page 3 / 7 Pansard & Associés


L'analyse de données en marketing industriel

3. LES OUTILS DE « DATAMINING »

Depuis une dizaine d'années un grand nombre d'outils de datamining est apparu sur le
marché. Il serait donc impossible de les présenter tous. Retenons simplement que les outils les
plus utilisés se rattachent à deux grandes familles :
 les arbres de décision
 les réseaux neuronaux.

3.1 Les arbres de décision

Les arbres de décision sont probablement les outils les plus faciles d'emploi. Ils
permettent de segmenter simplement une population. Pour comprendre leur fonctionnement
imaginons un fichier des clients de l'entreprise. Supposons que pour chaque client des fichiers
contiennent aussi bien des variables descriptives, c'est-à-dire son adresse, son âge, sa
catégorie socioprofessionnelle, son nombre d'enfants, que des variables comportementales,
telles que le nombre de commandes passées depuis un an, la réponse aux promotions, et la
nature des produits achetés. Le fichier contient aussi la variable que l'on cherche à comprendre,
par exemple le chiffre d'affaires réalisé avec ces clients.

En utilisant un logiciel adapté, celui-ci va mesurer pour chaque variable son impact sur le
chiffre d'affaires. Ayant déterminé les variables possédant le plus fort impact, il va décomposer
la population des clients en segments dont le chiffre d'affaires est identique en raison des
caractères communs qui les rassemblent. Le résultat va donc se présenter sous forme d'un
graphique qui a l'allure d'un arbre. La racine de l'arbre comprend l'ensemble de la population et
les feuilles contiennent chacune un segment dont les caractéristiques sont homogènes.

Les algorithmes utilisés sont nombreux mais aboutissent en général à des résultats
similaires. La première fonction de l'algorithme est d'identifier la variable ayant le plus fort
pouvoir de discrimination. Cette étape est généralement réalisée grâce à un test similaire au
test du KHI 2. Pour éviter que le logiciel ne poursuive la segmentation jusqu'à un niveau
tellement fin qu'elle perdrait toute utilité pratique, les logiciels contiennent généralement une
fonction automatique d'arrêt. Celle-ci a pour objectif de ne créer que des segments qui ont une
taille suffisante pour permettre à l'analyste d'en tirer des recommandations utilisables.

Les variables continues posent par ailleurs un problème spécifique. Comment les
décomposer en classe homogène, c'est-à-dire à quel niveau de valeur faut-il créer des
séparations pour que l'analyse soit exploitable ? Là encore les logiciels commerciaux possèdent
une fonction automatique qui permet de créer des coupures là où le degré de pertinence est
maximum.

Un des principaux avantages de ce type d'outils est sa facilité d'emploi. N'importe quel
utilisateur est capable, après quelques heures de pratique, de tirer parti de ce type de logiciel.
La représentation graphique facilite la compréhension intuitive. On peut pratiquement en tirer

JF. Pansard & I. Duprat Page 4 / 7 Pansard & Associés


L'analyse de données en marketing industriel

des conclusions utilisables en lecture directe : par exemple les clients ayant moins de trois
enfants et habitant au sud de la Loire ont un potentiel inférieur à ceux habitant la région
parisienne.

3.2 Les réseaux neuronaux

Il en va autrement avec les réseaux neuronaux, deuxième technique très répandue dans
l'analyse de données. Leur fonctionnement est beaucoup moins intuitif et l'on reproche souvent
à ces outils de produire des résultats que l'utilisateur ne comprend pas parfaitement.

Le principe est néanmoins assez simple. Il consiste à reproduire le fonctionnement des


neurones qui composent le cerveau humain. On sait que chaque neurone reçoit, des neurones
situés en amont, un signal qu'il traite pour le transmettre ensuite aux neurones situés en aval.
L'ensemble de ces traitements permet au cerveau humain de reconnaître les signes reçus de
l'extérieur, de les interpréter, et ensuite par un mécanisme d'apprentissage d'en tirer les
conséquences qui peuvent déclencher une action.

Les informaticiens ont reconstitué ce processus. Un neurone artificiel est donc


représenté par une fonction qui reçoit en entrée les valeurs de différentes variables puis
convertit ses valeurs en une variable de sortie qui servira de variable d'entrée aux neurones
suivants. Le processus d'apprentissage va donc s'organiser de façon progressive en entrant un
certain nombre de cas qui serviront d'exemple et grâce auxquels le réseau neuronal va
apprendre progressivement à identifier le poids qu'il convient d'affecter à chacune des variables
pour obtenir le résultat désiré.

Supposons par exemple que l'on dispose d'un fichier contenant un grand nombre
d'immeubles dont on connaît la valeur ainsi que les principales caractéristiques : la surface, la
localisation, le nombre de pièces, la date de construction, le type de construction. En analysant
ce fichier qui lui servira de base d'apprentissage, le réseau neuronal va apprendre
progressivement à reconnaître quels sont les facteurs qui ont un impact sur la valeur d’un
l'immeuble. On pourrait dire que ce mécanisme d'apprentissage est similaire à celui d'un expert
immobilier qui, au fil du temps, par l'observation de nombreux exemples, va finir par identifier les
facteurs qui lui permettent de fixer la valeur d'un bâtiment. Le réseau neuronal pourra alors
indiquer à l'analyste quels sont les facteurs qui ont un impact maximal et il pourra si on lui
fournit de nouveaux bâtiments avec leurs paramètres propres indiquer quelle est la valeur
probable qu'il convient de retenir pour ces nouveaux bâtiments.

L'une des forces des réseaux neuronaux et qu'ils permettent d'identifier des relations
non linéaires entre les variables. Cet avantage que ne permettent pas par exemple les
méthodes de régression multiple a une contrepartie dans la mesure où l'utilisateur comprend
plus difficilement l'analyse qui est faite. On constate néanmoins que les réseaux neuronaux sont
bien adaptés à la résolution de certains types de problèmes. Il existe aujourd'hui sur le marché
des outils simples qui, à partir de fichiers de format Excel, permettent de réaliser des analyses
rapides de certains types de fichiers.

JF. Pansard & I. Duprat Page 5 / 7 Pansard & Associés


L'analyse de données en marketing industriel

Supposons une entreprise qui dispose d'une base de données clients. Le réseau va
apprendre à reconnaître les liens entre le chiffre d'affaires réalisé et les différentes
caractéristiques du client. Si on l'alimente ensuite avec les caractéristiques des prospects il
pourra déterminer le chiffre d'affaires potentiel de chacun de ces prospects et donc optimiser
l'action commerciale en ciblant les prospects ayant le meilleur potentiel.

Ce type d'outils est maintenant disponible sur le marché depuis plusieurs années pour
un prix qui le rend désormais accessible à un grand nombre d'entreprises. Son usage s'est
d'abord banalisé dans les entreprises de vente par catalogue, puis dans les banques, avant de
se généraliser dans beaucoup d'entreprises qui disposent de fichiers clients importants.

4. CAS D’APPLICATION PRATIQUE DU


« DATAMINING »

Examinons maintenant le cas d'une entreprise qui fabrique des équipements industriels
et qui a pu mettre en œuvre ce type d'outils pour améliorer son efficacité commerciale. Les
équipements étaient réalisés sur mesure et faisaient l'objet d’un devis qui était suivi d'une
commande dans environ 15 % des cas. L'entreprise devait effectuer chaque année plusieurs
milliers de devis. La question que se posaient les commerciaux était donc de savoir dans quel
cas la consultation du client devait faire l'objet d'un devis, processus long et coûteux, en
sachant que plus de 80 % de ces devis n’aboutiraient pas à une commande effective.

La méthode suivie fut de constituer un fichier des devis. Dans cette base de données
furent entrés quelques milliers de devis effectués au cours des deux années précédentes pour
lesquels était indiqué un maximum de caractéristiques du client, les caractéristiques technique
de la consultation, ainsi que le résultat de l'offre à savoir si la commande avait été obtenue.

Chaque ligne du fichier devis comprenait ainsi les zones suivantes :


 Nom du prospect
 Secteur d'activité
 Taille du prospect
 Localisation des prospects
 Ancienneté de la relation commerciale
 Appartenance du prospect à un groupe
 Nom du représentant chargé du contact
 Montant du devis
 Famille d'équipements proposés
 La nature du service prenant la décision chez le prospect
 Résultats de l'offre

JF. Pansard & I. Duprat Page 6 / 7 Pansard & Associés


L'analyse de données en marketing industriel

Ce fichier fut ensuite analysé avec un logiciel de datamining standard du type arbres de
décision. Celui-ci établit une classification des devis en fonction du taux de réussite. On
constata donc que certains types de devis avaient un taux de réussite proche de 80 % alors que
d’autres étaient inférieurs à 5 %. L'entreprise constata notamment que lorsque le prospect était
filiale d'un groupe son taux de succès était systématiquement supérieur, facteur qui n'avait pas
été remarqué auparavant. L'ancienneté de la relation commerciale, facteur dont l'entreprise
pensait qu'il avait un fort impact n'avait en réalité aucune incidence sur le taux de réussite des
devis. Par ailleurs, le taux de réussite s'effondrait littéralement dès que l'entreprise réalisait des
devis de montants importants. Cette analyse a permis à l'entreprise de comprendre que son
système de tarification était inadapté. La couverture des frais généraux résultait d’un coefficient
multiplicateur appliqué aux coûts directs ce qui avait pour effet de la placer au-dessus de ses
concurrents dès que la commande devenait importante.

Cette analyse a donc permis de modifier l'organisation de la prospection ainsi que le


système de tarification. Les conséquences ont été extrêmement positives.

5. CONCLUSION

En guise de conclusion nous pensons donc que l'utilisation d'outils de datamining dans
les entreprises vendant à l'industrie est un moyen efficace et rapide d'améliorer les
performances commerciales. Ces outils ont désormais un coût tout à fait abordable. Leur
apprentissage ne demande dans la plupart des cas qu'un effort limité. Il serait regrettable que
les entreprises ne tirent pas partie de ses méthodes, en les supposant réservées aux
entreprises qui vendent aux consommateurs.

JF. Pansard & I. Duprat Page 7 / 7 Pansard & Associés

You might also like