A chacun sa montagne de “big data”

© istock

La sécurité n’est que l’un des problèmes pour les entreprises et les pouvoirs publics qui confient au “cloud” un nombre toujours grandissant de données sensibles. Mais les risques du stockage en ligne ne pèsent généralement pas lourd face aux avantages, a fortiori si l’on veut mieux analyser les flux d’information.

Nous avons appris la semaine dernière que des hackers avaient dérobé des photos intimes d’une série de stars de Hollywood. Elles utilisaient iCloud d’Apple, Dropbox ou d’autres services populaires pour sauvegarder en ligne des photos et des clips qu’elles avaient pris avec leur smartphone. Ce back-up en ligne possède une protection puissante en théorie mais qui, en pratique, est toujours exposée à la faiblesse de certains de ses maillons. Dans le cas présent, des lacunes dans les procédures semblent en cause. En fait, la technologie de sécurité y est donc pour peu. Les entreprises ne courent pas le risque d’être littéralement “mises à nu” par les fuites de données sur le cloud. Mais le dommage causé à leur réputation pourrait être du même ordre et les pertes commerciales pires encore. D’autant que l’on stocke en ligne des données plus sensibles.

Le gros des données reste généralement entreposable sur l’ordinateur local, mais le cloud est souvent la manière la plus efficace de soumettre à analyse un flux constant d’informations. “Les entreprises doivent rester sur leurs gardes”, avertit le professeur Bart Baesens de la KU Leuven (*). Spécialisé en data mining, il a publié cette année un ouvrage sur les techniques avancées d’analyse des données. “Chaque entreprise est assise sur une montagne d’informations, et qui ne fait que grandir. Ce que ces big data peuvent mettre en lumière vaut de l’or. Les entreprises doivent se montrer prudentes dans le traitement de ces informations. A leur place, j’y réfléchirais à deux fois avant de confier ces données cruciales à Amazon ou à d’autres fournisseurs populaires de cloud basés à l’étranger. Il vaut mieux gérer le stockage en ligne soi-même ou alors avec un partenaire local fiable.”

TRENDS-TENDANCES. Si les entreprises disposent déjà d’une infrastructure fiable, elles manquent généralement du talent qualifié pour analyser ces big data.

BART BAESENS. “Et pourtant, elles doivent se doter de cette expertise. Lorsque l’analyse des données est sous-traitée à l’extérieur, il y a toujours un risque que des informations précieuses aillent à la concurrence. Les entreprises jettent ainsi leur avantage compétitif aux orties. Aux Etats-Unis, on estime plus qu’ici que l’analyse des données est une activité stratégique. Les grandes sociétés américaines ont un CAO, un chief analytics officer.

Quelles compétences ces experts en big data doivent-ils posséder ?

Ils doivent pouvoir programmer. En outre, ils doivent avoir une formation scientifique et statistique. Ils doivent aussi être suffisamment en phase avec les activités de l’entreprise. Quelqu’un qui évalue pour une banque le risque de non-paiement des clients a tout intérêt à savoir de quoi se compose une hypothèque. Cela exige également beaucoup de créativité. Les solutions ne se trouvent pas comme cela, sous le sabot d’un cheval.

Les spécialistes en science des données non plus. Aux Etats-Unis, ils sont si recherchés qu’ils peuvent facilement gagner 200.000 euros par an…

Ce sont en effet des profils rares. L’enseignement supérieur doit un peu balayer devant sa porte. Il n’y a pas encore de filières spécialisées, mais celui qui étudie pour devenir ingénieur commercial en informatique de gestion peut suivre une série de cours à option et se former malgré tout aux sciences des données. A la KU Leuven, cinq étudiants suivent chaque année cette voie. Nous devons en convaincre davantage. La plupart des autres étudiants reculent devant la programmation, qui a l’air difficile et ennuyeuse. Ce n’est pas facile, d’accord, mais ennuyeux, non. Je connais par exemple une société pharmaceutique européenne qui souhaitait mieux connaître les effets secondaires de ses médicaments. Plutôt que d’effectuer plus de tests en laboratoire, très coûteux, elle a commencé par analyser ce que les gens disaient de leurs médicaments sur les sites des réseaux sociaux. Ce screening des plaintes, elle le mène en continu. Quant aux pouvoirs publics, ils utilisent un système sophistiqué d’analyse des données pour repérer des réseaux de fraude à la sécurité sociale. L’efficacité des contrôles est en hausse de 20 %. Ce ne sont là que quelques exemples de situations où le data mining fait la différence.

Outre les gens et l’infrastructure, y a-t-il d’autres obstacles encore ?

La qualité des données est le facteur déterminant. Le meilleur des chefs ne peut pas faire un bon plat avec de mauvais ingrédients. Les données doivent contenir aussi peu de hiatus et d’irrégularités que possible. Un traitement statistique peut résoudre certaines questions, mais il est préférable de prendre le problème à la racine. Ces 10 dernières années, en Belgique également, les entreprises ont lourdement investi en plateformes destinées à enregistrer et à gérer les données. Aujourd’hui, l’accent est mis sur l’analyse et, du coup, la qualité des données redevient prioritaire.

Souvent, les PME ne peuvent se permettre de tels investissements…

Une solution sur mesure est chère, mais il existe plusieurs logiciels prêts à l’emploi qui analysent déjà certaines catégories de données. L’un des services les plus connus est Google Analytics, grâce auquel on peut analyser le trafic sur les sites internet. C’est très intéressant, surtout pour les PME. Elles peuvent notamment y apprendre comment les clients viennent sur leur site, quelles pages ils y consultent et comment l’entreprise performe dans les moteurs de recherche.

Stijn Fockedey

Partner Content