Big Data : la France a deux ans de retard sur les Etats Unis

La France a deux à trois ans de retard sur les Etats Unis en ce qui concerne les projets Big Data. C’est l’opinion qui s’est dégagée de la table ronde organisée sur le thème « Les grandes manœuvres autour du Big Data », le 17 octobre lors de l’événement Big Data Expo.

Les projets Big Data sont actuellement en forte croissance aux Etats Unis. « Il y a eu 35 appels d’offre en 2012 dans le domaine du Big Data et de l’extraction de la connaissance de la part des agences fédérales américaines. Il y a en eu 75 en 2013, pour des projets allant de 35 à 80 millions de dollars » indique Augustin Huret, consultant chez Bearing Point.

Pour lui, « les structures fédérales et étatiques ont pris le lead aux Etats Unis. » Le retour sur investissement est toutefois assez long. Il est d’environ 18 mois « car les évolutions d’architecture sont très longues » explique le consultant.

Il cite un exemple de projet porté par une agence gouvernementale. « Une structure de la sécurité aérienne a décidé d’adopter le Cloud pour y centraliser les données météo, celles de la protection personnelle, les données de trafic, les données passagers, les données de maintenance avionique, … » liste-t-il. « Ces systèmes sont regroupés alors qu’ils ne discutaient pas entre eux. On en extrait les configurations critiques. On réalise un saut technologique en mariant des informations de sources différentes » se félicite-t-il.

Il souligne qu’avec le Big Data, des choses compliquées sont en train de devenir simples au contraire des Data Warehouse et de la Business Intelligence d’il y a dix ans. « Il faut voir les corrélations entre les données, dont les données extérieures à l’entreprise » décrit-il.

Cédric Carbone, directeur technique de Talend, éditeur de logiciels Open Source, confirme : « Il y a deux à trois ans de retard entre la France et les Etats Unis. » Il ajoute : « il y a des sites en production aux Etats Unis pour la modélisation des risques. Ils ont moins peur que nous aux Etats Unis. » Il définit la différence entre le monde d’hier, celui de la Business Intelligence et celui d’aujourd’hui avec le Big Data. « La Business Intelligence, c’est le rétroviseur. Les processus sont définis à l’avance. On structure la base de données pour avoir les données pour le Directeur Général et le Directeur financier » décrit-il.

Alors qu’avec le Big Data, « on peut traiter les ventes en temps réel. C’est ce que fait actuellement un groupe de la grande distribution. Il le faisait avec une journée d’écart auparavant. En plus, il va prédire le futur, en s’appuyant sur twitter et sur la météo. Le Big Data, c’est le temps réel avec le futur, ce que l’on ne pouvait pas faire avant. On n’a plus des agrégats mais les données réelles » s’enthousiasme-t-il.  

Côté applications, Cédric Carbone précise qu’il y a beaucoup d’analyse comportementale pour comprendre comment les utilisateurs utilisent les sites Web. C’est le cas par exemple chez VoyagesSNCF.com. Mais pour lui, « la  nouveauté du Big Data, c’est la facilité de montée en puissance, pour pas cher, avec des serveurs banalisés, du commodity hardware. Avec les Data Warehouse, on avait des mastodontes coûteux. Grâce au Big Data, on a des serveurs pas chers, qui peuvent même griller, ce n’est pas grave, il suffit de les remplacer car tout est redondant. Et on n’a plus besoin de compter combien un administrateur peut gérer de serveurs » se réjouit-il.


Sébastien Layer, architecte logiciel du cabinet conseil Sentelis, se montre toutefois plus réservé. « La majorité des clients en France ont du mal à décrypter le sujet du Big Data » dit-il. « Je pense que les entreprises françaises sont dans la phase de montée en compétences. On progresse dans la pédagogie avec les bons messages dans la tête des gens » estime-t-il, tout en se félicitant que le récent rapport d’Anne Lauvergeon ait pointé le Big Data comme une opportunité. « Nous sommes soutenus par l’état maintenant. En France, on n’a pas tendance à vouloir innover. »

Il poursuit : «  Il faut d’abord exploiter les données que nous avons. Souvent les métiers considèrent l’informatique comme un support et beaucoup de gens du marketing n’analysent pas les logs, les fichiers de connexion et de navigation des sites Web de l’entreprise. On ne veut pas partager l’information avec autrui parce que l’on a peur qu’il nous pique notre boulot. Or, il faut étudier la donnée de manière transverse » conseille-t-il.

Ce partage des informations reste toutefois soumis au contrôle de la CNIL. « La CNIL est très vigilante, en ce qui concerne par exemple le partage d’information sur les mauvais risques pour des assureurs » relève Augustin Huret de Bearing Point. « Or, aux Etats Unis, les compagnies d’assurance partagent les plateformes de gestion des risques » pointe-t-il.  Il note: « consolider les data, cela a pris quelques mois avec les technologies Big Data. Cela aurait pris de 2 à 3 ans, il y a quelque temps. »

En fond de cour, Firas Mamoun, avocat au cabinet Iteanu, aura observé le débat d’un œil critique. « Le partage d’informations est lié à la CNIL » rappelle-t-il. Il liste les questions que se posent actuellement ses clients. « Ils nous demandent de valider leurs outils d’agrégation de données. Ils veulent savoir si leurs logiciels sont conformes et comment se conformer à la loi. »

Il conclut en précisant : « les entreprises veulent savoir comment protéger leurs investissements dans le Big Data. Elles sont dans la même situation que Google. Les données brutes ne leur appartiennent pas mais elles ont des droits Sui Generis sur la base qu’elles gèrent et elles peuvent en contrôler les accès, tout comme le fait Google. »

Photo, de gauche à droite : Firas Mimoun, avocat, Augustin Huret de Bearing Point, Cédric Carbone de Talend et Sébastien Layer de Sentelis.