Retour aux actualités
Article suivant Article précédent

Revue TELECOM 177 - Des machines apprenantes au service des entreprises

Articles Revue TELECOM

-

15/10/2015


DES MACHINES

APPRENANTES

AU SERVICE DES

ENTREPRISES

 
Article collectif dans la revue TELECOM n° 177
 

De la sécurisation des processus industriels à l’amélioration de la relation client, le machine learning, ou apprentissage statistique, trouve progressivement sa place dans les entreprises pour tirer parti de l’immense volume de données récoltées.

La chaire Machine Learning for Big Data a été lancée en septembre 2013 au sein de Télécom ParisTech pour permettre de soutenir la recherche fondamentale dans le champ du machine learning. Elle est financée par quatre entreprises qui rencontrent toutes des problématiques liées à la gestion et à l’exploitation de données massives : Criteo, PSA Peugeot Citroën, Safran et BNP Paribas.

Les 27 enseignants-chercheurs, doctorants et post-doctorants qui forment l’équipe académique de la chaire travaillent de façon collaborative avec les entreprises partenaires, pour confronter leurs problématiques concrètes et les enjeux de recherche afférents dans le domaine de l’apprentissage : ranking, détection d'anomalies, normalisation des données et transfer learningmetric learning,…

Une journée de travail réunissant une cinquantaine de partenaires et chercheurs en mars 2015 a permis de favoriser les échanges et les discussions, sur des questions aussi variées que la gestion de la relation client ou le monitoring des moteurs des aéronefs. C’est à l’occasion de ces rendez-vous que la recherche rencontre les enjeux économiques de nos entreprises et donne aux chercheurs des pistes pour poursuivre l’exploration de ce vaste territoire.

Les données, clé de la relation

 

Si les applications marketing du big data sont désormais connues, il existe d’autres domaines où les données entrent en ligne de compte dans la relation de l’entreprise avec ses clients.
On peut s’intéresser notamment aux problématiques de personnalisation et d’attrition.
L’attrition (ou le churn) désigne la perte de clients d’une entreprise. Elle peut être liée à des causes extérieures à l’entreprise (par exemple, un déménagement) ou à des causes internes : changement ou disparition d’un produit, offre de service qui se dégrade,… L'enjeu est de prédire l’occurrence imminente du 
churn afin de prendre des mesures pour éviter le passage éventuel à la concurrence.
La prédiction du churn se fonde sur les signes au sein même des données générées lors de la relation client. Ainsi, une baisse d’activité, une diminution ou une augmentation du nombre de contacts, une modification de la nature de la relation sont des signes avant-coureurs qui peuvent alerter sur la dégradation d’une relation commerciale. Cependant, quand les signes deviennent évidents, il est souvent déjà trop tard. On va donc parler de prédiction de l’attrition, en cherchant à détecter au plus tôt les signaux faibles qui indiquent que la relation est déjà en train de se modifier.

Des méthodes de scoring/ranking peuvent être mises en œuvre pour prédire dans quelle mesure une baisse d’intensité sur une longue période de temps peut être annonciatrice d'une résiliation. Du text mining appliqué sur des échanges de mails ou sur les réseaux sociaux peut permettre une analyse des sentiments, et ainsi montrer la détérioration de la relation, fournissant de ce fait d'autres données susceptibles de « nourrir » des modèles prédictifs. De nombreuses approches peuvent être utilisées pour résoudre ce problème difficile, comme les modèles graphiques markoviens, les réseaux bayésiens : en effet, la dépendance des observations au cours du temps peut jouer un rôle clé dans la détection de l’attrition.
Une fois les signes avant-coureurs de la perte potentielle d’un client détectés, il faut mettre en œuvre des actions qui, pour autant, ne doivent pas cristalliser une insatisfaction naissante. Travailler avec les équipes en charge de la relation client, ou en contact direct avec eux, permet d’élaborer des réponses adaptées.

Adapter sa relation à ses clients, c’est également le but de la personnalisation. On entre ici dans le domaine du Web, devenu un canal privilégié de la relation client. Il présente l’avantage de pouvoir proposer une personnalisation très poussée en se basant sur des données diverses à la granularité de plus en plus fine, issues d’un CRM, des données d’un compte client ou plus simplement des données de navigation. La personnalisation d’un site possède un impact significatif sur les taux de clics et de conversion, à condition d’être adroitement dosée.
Pour rendre une personnalisation plus efficace, il existe des solutions auto- apprenantes qui recherchent la combinaison de paramètres la plus efficace pour un internaute donné. Mais actuellement peu d’éditeurs de plate-forme permettent une optimisation très poussée des paramètres. On peut se tourner vers des solutions d'apprentissage par renforcement, dont le temps d’ajustement des modèles est encore à l’heure actuelle relativement long quand on souhaite personnaliser l’affichage d’un site en temps réel. Des pistes d’amélioration sont à chercher du côté de l'apprentissage contextuel.

Mieux vaut prédire que guérir

 

Parmi les très nombreuses sources de données massives, il ne faut pas oublier les capteurs présents aujourd’hui dans tous les moteurs, véhicules voire ouvrages d’art de grande taille. Ils délivrent en temps réel ou pendant la maintenance des flux de données temporelles. Ces données donnent notamment des indicateurs d’usure des composants en fonction d’un temps d’utilisation, qu’il faut croiser avec les conditions d’utilisation telle que la température, le style de conduite du conducteur, l’hygrométrie,…
En analysant des données de milliers de capteurs sur des milliers d’appareils, à différentes étapes de leur utilisation – de la sortie d’usine jusqu’au pic activité -, il devient possible de déterminer des modèles de comportement habituels des appareils et, donc, de détecter tout appareil qui ne se comporterait pas « norma- lement » en mode non supervisé. 
Ce qu’on appelle « maintenance prédictive » consiste à surveiller les données pour évaluer la potentialité d’un comportement anormal, bien avant qu’il ne se fasse sentir sur le plan mécanique. On peut ainsi décider d’intervenir en remplaçant une pièce qui s’est usée prématurément ou a moins bien résisté à des conditions météo extrêmes.

Des difficultés subsistent toutefois, notamment au niveau de la normalisation des données. Les conditions d’utilisation des moteurs et appareils pouvant varier considérablement, il faut prendre en compte ces variations dans l’établissement de modèles. Un apprentissage statistique efficace passera donc par un apprentissage de métriques et de simiarités permettant la comparaison de données normalisées.
La machine learning peut intervenir dans l’entreprise à tout moment où l’on souhaite élaborer des modèles prédictifs à partir de données. Le modèle n'est pas stipulé a priori mais appris par une machine à l'aide d'un algorithme explorant un vaste dictionnaire de modèles à travers les données disponibles.
S’appuyant sur l’expérience du réel, elle donne aujourd’hui aux entreprises une vision autrefois inconcevable sur l’ensemble de leurs activités.

Pour en savoir plus sur les travaux de la chaire : http://machinelearning- forbigdata.telecom-paristech.fr 

 

Ce texte est issu notamment d’échanges au cours des ateliers de la chaire Machine Learning for Big Data du 5 mars 2015, d’après les travaux des rapporteurs Eric Sibony, Andrés Sánchez-Pérez, Guillaume Papa, Nicolas Goix et les exposés présentés par les partenaires de la chaire. La chaire est pilotée depuis sa création par Stéphan Clémençon, Professeur à Télécom-ParisTech au sein du Département TSI et animateur du groupe de recherche STA. Stéphan Clémençon effectue ses travaux de recherche en mathématiques appliquées au LTCI UMR Télécom ParisTech/CNRS No. 5141. Ses thématiques de recherche se situent principalement dans les domaines du machine learning, des probabilités et des statistiques. Il est par ailleurs responsable du Mastère Spécialisé Big Data à Télécom ParisTech ainsi que du Certificat d’Études Spécialisées « Data Scientist ».




 

238 vues Visites

J'aime

Commentaires0

Veuillez vous connecter pour lire ou ajouter un commentaire

Articles suggérés

Articles Revue TELECOM

Comment la France peut réussir dans le quantique # 197

photo de profil d'un membre

Rédaction Revue TELECOM

28 juillet

Articles Revue TELECOM

ORDINATEUR QUANTIQUE ET CRYPTOGRAPHIE POST-QUANTIQUE #197

photo de profil d'un membre

Rédaction Revue TELECOM

13 juillet

Articles Revue TELECOM

Editorial l'informatique quantique # 197

photo de profil d'un membre

Rédaction Revue TELECOM

13 juillet