Professional Documents
Culture Documents
L'analyse de données
en marketing industriel
Si le marketing grand public utilise depuis longtemps les techniques d'analyse de données pour
compléter ses analyses quantitatives et qualitatives, le marketing industriel a jusqu'à présent
peu fait usage de ces techniques. Pourtant, en permettant de pratiquer une analyse des
données sans avoir à faire d'hypothèses préalables, le « datamining » a donné aux entreprises
vendant à l'industrie, qui ont fait l'effort de l’utiliser, des résultats tout à fait intéressants.
Cette note rappelle donc les principes du « datamining », présente ses principaux outils et
présente une illustration pratique de son utilisation.
Sommaire
1. INTRODUCTION__________________________________________________________ 2
2. APPROCHE CONCEPTUELLE DU « DATAMINING » ____________________________ 3
3. LES OUTILS DE « DATAMINING »___________________________________________ 4
3.1 Les arbres de décision ________________________________________________ 4
3.2 Les réseaux neuronaux________________________________________________ 5
4. CAS D’APPLICATION PRATIQUE DU « DATAMINING » _________________________ 6
5. CONCLUSION ___________________________________________________________ 7
1. INTRODUCTION
Le marketing grand public utilise depuis très longtemps les techniques d'analyse de
données. La vente par correspondance a ainsi utilisé d'abord les techniques statistiques puis le
datamining. Celui-ci permet de faire une recherche dans les données sans avoir à faire
d'hypothèses préalables. Il est particulièrement adapté au ciblage des actions de prospection en
identifiant les profils de clients qui ont un comportement positif lors des actions de promotion.
Le marketing industriel a jusqu'à présent peu fait usage de ces techniques. Les raisons
sont multiples. On sait que la culture marketing des firmes industrielles est plutôt concentrée sur
le produit que sur le client. Les services marketing et commerciaux de ces firmes sont rarement
composés de personnes ayant l'expérience de l'analyse méthodique des données. L'idée sous-
jacente est que chaque client est un cas particulier et que les tailles des fichiers sont
insuffisantes pour se prêter à une analyse systématique.
On constate néanmoins que les entreprises vendant à l'industrie qui ont fait l'effort
d'utiliser des outils d'analyse modernes ont obtenu des résultats tout à fait intéressants.
Pour le lecteur qui n'est pas familier avec ce domaine nous rappellerons rapidement en
quoi consistent les outils actuels de datamining. Puis nous examinerons un exemple
d'application par une firme faisant des ventes à l'industrie.
Rappelons que le test du KHI 2, pratiqué depuis le début du XXe siècle, a pour objet de
mesurer l'écart des moyennes d'une variable dans deux échantillons d'une population pour
vérifier si cet écart est statistiquement significatif. Ce test est notamment utilisé dans les essais
cliniques en médecine pour vérifier l'impact d'un médicament sur l'état de santé d'un échantillon
de la population.
L'entreprise part donc d'une hypothèse qui est que la zone d'habitation a un impact sur
le type de chaussettes portées. Puis elle vérifie cette hypothèse par un test statistique.
Avec les techniques de « datamining », il n'est pas nécessaire de faire une hypothèse
préalable. On se contente d'accumuler dans le fichier le plus grand nombre possible de
variables potentiellement pertinentes, puis on lance l’exploration. L'outil informatique va balayer
systématiquement toutes les hypothèses puis extraire celles qui sont pertinentes. Ceci doit
permettre de faire apparaître des relations entre variables qui n'étaient pas nécessairement
identifiées par l'analyste.
Ce sont justement ces relations non intuitives qui ont le plus de valeur pour la firme qui
cherche à comprendre le comportement de ses clients.
Depuis une dizaine d'années un grand nombre d'outils de datamining est apparu sur le
marché. Il serait donc impossible de les présenter tous. Retenons simplement que les outils les
plus utilisés se rattachent à deux grandes familles :
les arbres de décision
les réseaux neuronaux.
Les arbres de décision sont probablement les outils les plus faciles d'emploi. Ils
permettent de segmenter simplement une population. Pour comprendre leur fonctionnement
imaginons un fichier des clients de l'entreprise. Supposons que pour chaque client des fichiers
contiennent aussi bien des variables descriptives, c'est-à-dire son adresse, son âge, sa
catégorie socioprofessionnelle, son nombre d'enfants, que des variables comportementales,
telles que le nombre de commandes passées depuis un an, la réponse aux promotions, et la
nature des produits achetés. Le fichier contient aussi la variable que l'on cherche à comprendre,
par exemple le chiffre d'affaires réalisé avec ces clients.
En utilisant un logiciel adapté, celui-ci va mesurer pour chaque variable son impact sur le
chiffre d'affaires. Ayant déterminé les variables possédant le plus fort impact, il va décomposer
la population des clients en segments dont le chiffre d'affaires est identique en raison des
caractères communs qui les rassemblent. Le résultat va donc se présenter sous forme d'un
graphique qui a l'allure d'un arbre. La racine de l'arbre comprend l'ensemble de la population et
les feuilles contiennent chacune un segment dont les caractéristiques sont homogènes.
Les algorithmes utilisés sont nombreux mais aboutissent en général à des résultats
similaires. La première fonction de l'algorithme est d'identifier la variable ayant le plus fort
pouvoir de discrimination. Cette étape est généralement réalisée grâce à un test similaire au
test du KHI 2. Pour éviter que le logiciel ne poursuive la segmentation jusqu'à un niveau
tellement fin qu'elle perdrait toute utilité pratique, les logiciels contiennent généralement une
fonction automatique d'arrêt. Celle-ci a pour objectif de ne créer que des segments qui ont une
taille suffisante pour permettre à l'analyste d'en tirer des recommandations utilisables.
Les variables continues posent par ailleurs un problème spécifique. Comment les
décomposer en classe homogène, c'est-à-dire à quel niveau de valeur faut-il créer des
séparations pour que l'analyse soit exploitable ? Là encore les logiciels commerciaux possèdent
une fonction automatique qui permet de créer des coupures là où le degré de pertinence est
maximum.
Un des principaux avantages de ce type d'outils est sa facilité d'emploi. N'importe quel
utilisateur est capable, après quelques heures de pratique, de tirer parti de ce type de logiciel.
La représentation graphique facilite la compréhension intuitive. On peut pratiquement en tirer
des conclusions utilisables en lecture directe : par exemple les clients ayant moins de trois
enfants et habitant au sud de la Loire ont un potentiel inférieur à ceux habitant la région
parisienne.
Il en va autrement avec les réseaux neuronaux, deuxième technique très répandue dans
l'analyse de données. Leur fonctionnement est beaucoup moins intuitif et l'on reproche souvent
à ces outils de produire des résultats que l'utilisateur ne comprend pas parfaitement.
Supposons par exemple que l'on dispose d'un fichier contenant un grand nombre
d'immeubles dont on connaît la valeur ainsi que les principales caractéristiques : la surface, la
localisation, le nombre de pièces, la date de construction, le type de construction. En analysant
ce fichier qui lui servira de base d'apprentissage, le réseau neuronal va apprendre
progressivement à reconnaître quels sont les facteurs qui ont un impact sur la valeur d’un
l'immeuble. On pourrait dire que ce mécanisme d'apprentissage est similaire à celui d'un expert
immobilier qui, au fil du temps, par l'observation de nombreux exemples, va finir par identifier les
facteurs qui lui permettent de fixer la valeur d'un bâtiment. Le réseau neuronal pourra alors
indiquer à l'analyste quels sont les facteurs qui ont un impact maximal et il pourra si on lui
fournit de nouveaux bâtiments avec leurs paramètres propres indiquer quelle est la valeur
probable qu'il convient de retenir pour ces nouveaux bâtiments.
L'une des forces des réseaux neuronaux et qu'ils permettent d'identifier des relations
non linéaires entre les variables. Cet avantage que ne permettent pas par exemple les
méthodes de régression multiple a une contrepartie dans la mesure où l'utilisateur comprend
plus difficilement l'analyse qui est faite. On constate néanmoins que les réseaux neuronaux sont
bien adaptés à la résolution de certains types de problèmes. Il existe aujourd'hui sur le marché
des outils simples qui, à partir de fichiers de format Excel, permettent de réaliser des analyses
rapides de certains types de fichiers.
Supposons une entreprise qui dispose d'une base de données clients. Le réseau va
apprendre à reconnaître les liens entre le chiffre d'affaires réalisé et les différentes
caractéristiques du client. Si on l'alimente ensuite avec les caractéristiques des prospects il
pourra déterminer le chiffre d'affaires potentiel de chacun de ces prospects et donc optimiser
l'action commerciale en ciblant les prospects ayant le meilleur potentiel.
Ce type d'outils est maintenant disponible sur le marché depuis plusieurs années pour
un prix qui le rend désormais accessible à un grand nombre d'entreprises. Son usage s'est
d'abord banalisé dans les entreprises de vente par catalogue, puis dans les banques, avant de
se généraliser dans beaucoup d'entreprises qui disposent de fichiers clients importants.
Examinons maintenant le cas d'une entreprise qui fabrique des équipements industriels
et qui a pu mettre en œuvre ce type d'outils pour améliorer son efficacité commerciale. Les
équipements étaient réalisés sur mesure et faisaient l'objet d’un devis qui était suivi d'une
commande dans environ 15 % des cas. L'entreprise devait effectuer chaque année plusieurs
milliers de devis. La question que se posaient les commerciaux était donc de savoir dans quel
cas la consultation du client devait faire l'objet d'un devis, processus long et coûteux, en
sachant que plus de 80 % de ces devis n’aboutiraient pas à une commande effective.
La méthode suivie fut de constituer un fichier des devis. Dans cette base de données
furent entrés quelques milliers de devis effectués au cours des deux années précédentes pour
lesquels était indiqué un maximum de caractéristiques du client, les caractéristiques technique
de la consultation, ainsi que le résultat de l'offre à savoir si la commande avait été obtenue.
Ce fichier fut ensuite analysé avec un logiciel de datamining standard du type arbres de
décision. Celui-ci établit une classification des devis en fonction du taux de réussite. On
constata donc que certains types de devis avaient un taux de réussite proche de 80 % alors que
d’autres étaient inférieurs à 5 %. L'entreprise constata notamment que lorsque le prospect était
filiale d'un groupe son taux de succès était systématiquement supérieur, facteur qui n'avait pas
été remarqué auparavant. L'ancienneté de la relation commerciale, facteur dont l'entreprise
pensait qu'il avait un fort impact n'avait en réalité aucune incidence sur le taux de réussite des
devis. Par ailleurs, le taux de réussite s'effondrait littéralement dès que l'entreprise réalisait des
devis de montants importants. Cette analyse a permis à l'entreprise de comprendre que son
système de tarification était inadapté. La couverture des frais généraux résultait d’un coefficient
multiplicateur appliqué aux coûts directs ce qui avait pour effet de la placer au-dessus de ses
concurrents dès que la commande devenait importante.
5. CONCLUSION
En guise de conclusion nous pensons donc que l'utilisation d'outils de datamining dans
les entreprises vendant à l'industrie est un moyen efficace et rapide d'améliorer les
performances commerciales. Ces outils ont désormais un coût tout à fait abordable. Leur
apprentissage ne demande dans la plupart des cas qu'un effort limité. Il serait regrettable que
les entreprises ne tirent pas partie de ses méthodes, en les supposant réservées aux
entreprises qui vendent aux consommateurs.