Le Big Data autorise des applications au service prioritairement du marketing. C’est ce qui ressort des différentes tables rondes qui se sont tenues durant le salon Big Data Expo, les 16 et 17 octobre.
On analyse alors le parcours des internautes sur les sites Web, on suit les parcours clients en mode cross-canal ou on optimise les propositions commerciales en temps réel. On trouve moins fréquemment des usages pour des calculs complexes qu’il s’agisse de positionner des éoliennes, d’analyser les performances de systèmes informatiques ou de gérer des risques financiers.
Au bout du compte, « 45% des projets Big Data c’est du marketing, autour de la connaissance client » affirme Isabelle Claverie, architecte logiciel chez IBM. « Cela sert aussi à améliorer des processus. Par exemple pour positionner des éoliennes, grâce à Hadoop et à une grille de données de 1400 nœuds. De même pour la gestion des risques dans la finance » complète-t-elle.
« Les projets Big Data concernent la manière d’agir aux points de contact avec le client. Il y a beaucoup de projets concernant la relation client. On parle de Big Data Analytique » décrit pour sa part Philippe Deville, consultant chez IBM.
Beaucoup de projets Big Data sont centrés sur l’analyse du comportement de l’internaute. Arnaud Massonnie, co-fondateur et directeur général de Fifty-five, cite deux cas d’usage qu’il a eu à traiter : l’optimisation des réponses aux requêtes du moteur de recherche de PagesJaunes et la proposition d’offres adaptées à l’internaute sur le site des 3Suisses.
Pagesjaunes est l’annuaire des particuliers et des entreprises. « C’est la 7ème régie publicitaire au monde » indique Arnaud Massonnie. Fifty-five s’est vue demander d’optimiser l’expérience utilisateur sur le moteur de recherche intégré à l’annuaire.
« Par exemple, si quelqu’un tape Acacias à Courbevoie, s’agit-il de la recherche d’un fleuriste ou d’un restaurant ? » illustre-t-il. Comment faire en sorte que les internautes reçoivent la réponse la plus adaptée ? Il existe une solution manuelle chez PagesJaunes. Des opérateurs, des indexeurs, analysent à la main cent requêtes prises au hasard chaque jour. Chez Fifty-five, « nous regardons si la requête acacias est la même sur toute la France. Nous prenons plein d’indices pour voir quand la réponse à la requête est erronée » décrit-il.
« Il s’agit de Web analyse » complète Antoine Denoix, co-fondateur et program manager chez Fifty-five, qui est intervenu plus tard dans l’après midi et a également cité l’application développée pour PagesJaunes à l’occasion d’une autre table ronde. « Nous sommes face à des requêtes sur le quoi et le qui » dit-il. Il décrit la situation chez Pagesjaunes. « Leur moteur de requêtes est un gros système. Il faut de six mois à un an pour le modifier. Nous avons stocké les données chez nous lors du POC [NDLR : Proof of concept]. Une fois que le succès a été au rendez-vous, la solution a été ré-internalisée chez PageJaunes » décrit-il. Le POC a permis d’analyser quand la réponse à la requête était mal adaptée.
Autre exemple : le site web des 3Suisses. « On conseille de picorer et non d’utiliser toutes les données » explique Antoine Denoix. « Par exemple, sur le site des 3Suisses, nous prenons les deux à trois dernières commandes sur les 6 mois écoulés et nous suivons quelques indicateurs via la Web analyse, tels que les fiches produits parcourues et le nombre de visites. » Pour lui, « Le Big Data, c’est picorer les bonnes données dans les sources de données, et faire des ponts entre ces sources. »
En ce qui concerne les 3Suisses, Arnaud Massonnie de Fifty-five indique pour sa part : « Nous tenons compte des données de vente, du catalogue produit, des informations de stocks et des promotions afin de savoir quelle est la propension que l’internaute achète dans les 24 heures et ce qu’il va acheter. »
L’objectif est d’agir et de comprendre le passé. « Par exemple, on déclenche une enchère plus élevée pour lui envoyer une bannière sur le Monde.fr » illustre Arnaud Massonnie. L’application analyse également si l’internaute a un comportement ‘promophile’ ou premium. « Il est inutile de fournir du premium à quelqu’un qui est promophile et inversement. »
De manière plus générale, Antoine Denoix liste trois cas d’usage fréquents du Big Data. Il cite d’abord le « machine to machine », pour des applications d’achat médias ou de personnalisation de contenu. Puis il évoque le reporting destiné aux chefs de produit, avec des outils de type Qlikview. Et enfin, il décrit les applications de type exploratoire employées par les statisticiens.
L’analyse du parcours client sur un site Web est également un cas d’usage décrit par Gilles Venturi, DG et cofondateur de la société soft.computing lors de la session qu’il a animée. « Les Weblogs et les parcours clients sont des sujets à la mode » dit-il. « On suit les traces des internautes sur les sites Web » décrit Gilles Venturi.
« On analyse les parcours clients et on identifie les points de passage qui sont les plus propices à la conversion. Cela permet également de réaliser une segmentation des visites, et de proposer la navigation la plus adaptée selon les visites qui sont issues d’une navigation provoquée, à partir d’une bannière par exemple, et celles qui sont des navigations spontanées. » Selon lui, en implantant ce type d’optimisation : « On améliore de 1,5% le taux de conversion. »
Gilles Venturi cite comme autre cas d’usage l’analyse des ‘streams sociaux’, les conversations sur Facebook ou twitter. « On procède à de l’analyse de sentiment, avec de l’analyse sémantique, on regroupe des mots, et via des filtres de perception on détermine ceux qui aiment, ceux qui n’aiment pas, ceux qui sont cyniques, etc. » A partir de ces informations, on effectue le profiling des clients. Il faut alors dé-dupliquer les données, et placer des ponts entre le CRM et les données sociales. « Le plan d’action ensuite est de ré-enchanter l’expérience client et de valoriser la voix du client » décrit-il.
Au bout du compte, quelle est la différence entre le Big Data et le décisionnel classique ? « Il y a trois facteurs de différence avec la Business Intelligence » énonce Philippe Deville d’IBM. « Tout d’abord, on prend la donnée dans son contexte. Non seulement, on remonte par exemple la valeur des compteurs d’eau, mais on croise également avec la météo, afin d’anticiper les crises écologiques. Ce n’est pas possible avec la B.I. » affirme-t-il.
Il ajoute que grâce à la Big Data, on donne du sens à des océans de données. « On étudie des corrélations, on donne de la signification, avec des outils de visualisation donnés aux métiers. » Enfin, troisième point et c’est un atout majeur, « les applications Big Data croissent sans que les coûts informatiques augmentent » pointe-t-il. Ce que confirme Gilles Venturi pour qui les bases de données relationnelles employées avant l’arrivée du Big Data voyaient leurs coûts exploser quand les volumes augmentaient. « En 2013, avec le Big Data, on maintient un rapport performance sur coût constant » se félicite-t-il.
Cette maîtrise des coûts informatiques provient de l’usage de la technologie Hadoop, une plateforme Open Source désormais érigée en tant que standard de fait. Mais ce faible coût de la plateforme a son revers. « Les compétences Hadoop sont rares et chères » prévient Cédric Carbone, directeur technique de Talend, un éditeur de solutions Open Source. « Hadoop est un standard mais c’est encore une affaire de Geeks » confirme également Damien Cudel, chef de marché plateforme applicative chez Microsoft.
Le domaine est techniquement complexe, il vaut mieux se focaliser sur la valeur d’usage préconise Arnaud Massonnie de Fifty-Five. De même, Gilles Venturi avertit : « N’essayer pas de commencer par la technique, mais allez-y par le business. Ne faites pas un POC technique. Cibler des ROI à six mois. Il faut que cela rapporte plus d’argent que cela n’en coûte » conclut-il.
Photo, de gauche à droite : Arnaud Massonnie de Fifty(five, Philippe Deville d’IBM, Damien Cudel de Microsoft et Cédric Carbone de Talend.