Mettre à contribution le Big Data
Même les entreprises pleinement engagées dans des projets de Big Data, qui ont défini le business case et sont prêtes à évoluer au-delà de la phase de projet initiale sont confrontées à une vaste question : comment mettre à profit le Big Data ?
La forte exposition médiatique et la gamme déconcertante d’options et de fournisseurs de technologies de Big Data compliquent la tâche des entreprises qui sont à la recherche d'une solution adaptée à leurs besoins. L’objectif reste de concevoir et de mettre en place un environnement de Big Data sous-jacent à faible coût et peu complexe. Celui-ci doit être stable, fortement intégré et suffisamment évolutif pour faciliter l'adoption par l’ensemble de l'entrepise d'une culture centrée sur les données et leur analyse.
Une telle culture repose sur le fait que toute la puissance du Big Data et de l'analyse doit être accessible à toutes les divisions de l'entreprise qui en ont besoin. Elle doit s'accompagner de l'infrastructure sous-jacente, des flux de données et des outils dont les utilisateurs ont besoin pour obtenir des informations créatrices de valeur, prendre de meilleures décisions et résoudre de véritables problèmes métier. Voilà comment le Big Data devrait fonctionner.
Le Big Data : créateur d’opportunités pour les entreprises
Lorsque les entreprises ne savent pas par où commencer, il leur suffit de considérer le Big Data comme un moteur. Afin d'améliorer les performances, il s’agit d’assembler les bons composants de manière fluide, stable et durable. Ceux-ci incluent :
- Des sources de données : systèmes opérationnels et fonctionnels, logs et capteurs intégrés à des machines, Internet et les réseaux sociaux, ainsi que bien d’autres sources
- Des plateformes de données, ainsi que des entrepôts et des plateformes dédiées à la découverte de nouvelles données : afin de capturer et gérer les données, avant de les convertir en informations essentielles sur les clients qui débouchent sur des actions
- Des outils et des applications d’analyse de Big Data : il s'agit du « front-end » utilisé par les décideurs, les analystes, les gestionnaires et d’autres individus pour accéder aux informations sur les clients, modéliser des scénarios, accomplir leurs tâches et gérer les activités de l’entreprise.
Il s’agit d'abord de mettre à contribution et d’exploiter toute la puissance des actifs de Big Data pour créer de la valeur métier tangible. Afin de permettre à tous ces éléments de fonctionner ensemble, il faut adopter une approche stratégique du Big Data et développer une architecture de Big Data bien pensée qui examine non seulement les flux et les référentiels de données actuellement disponibles, mais tient également compte des objectifs métier spécifiques et des tendances à long terme sur le marché. En d’autres termes, il n’existe pas de recette unique pour tirer profit du Big Data. Il ne s'agit pas de produits fabriqués en série.
Sachant que le Big Data est voué à poursuivre son développement, ces infrastructures doivent servir de base pour les opérations futures. Cela représente bien évidemment des dépenses conséquentes. Toutefois, de nombreuses entreprises avant-gardistes qui ont été parmi les premières à exploiter le Big Data sont parvenues à une conclusion surprenante – et même légèrement contre-intuitive : mettre au point un environnement de Big Data adapté peut permettre de faire des économies. Autre découverte surprenante : cette diminution des dépenses peut se révéler étonnamment élevée et intervenir assez rapidement.
Il est essentiel de noter que la mise en place de cadres flexibles permet aux technologies et aux programmes de Big Data de prendre en charge plusieurs pans de l'activité et d'optimiser les opérations sur l’ensemble de l’entreprise. Lorsque ce n'est pas le cas, il y a un risque réel que même des projets de Big Data les plus avancés et ambitieux finissent par devenir des investissements à perte. Gartner estime que 90 % des projets de Big Data ne sont pas exploités ou répliqués sur l’ensemble de l’entreprise. Les entreprises qui parviendront à mettre à profit le Big Data demain font actuellement partie des 10 % restants et ont depuis longtemps cessé de voir petit.
Les caractéristiques d'un environnement de Big Data très efficace
- Exploitation fluide des ensembles de données : Une grande partie des bénéfices naît de l'association, de la combinaison et de la comparaison d'ensembles de données – ainsi, en matière d'analyse de données, il ne peut y avoir d’innovation sans intégration
- Flexibilité, faible coût : L’objectif consiste à minimiser la complexité et les dépenses en faisant preuve de la flexibilité nécessaire pour s’adapter aux besoins futurs, qui concerneront à la fois une mise à l'échelle plus grande et qui seront davantage ciblés pour des groupes d’utilisateurs spécifiques.
- Stabilité : La stabilité est essentielle car les volumes de données sont importants et les utilisateurs doivent pouvoir accéder aux données et interagir facilement avec elles. Ainsi, la performance de l’infrastructure est un critère essentiel afin d'améliorer les performances de l’entreprise grâce au Big Data.
Big Data et Hadoop : une technologie à connaître
Hadoop est un système de fichiers qui permet de stocker tous types de données, dont la plupart auraient autrefois été ignorées par les entreprises (car le processus pour les rendre exploitables aurait été trop difficile et coûteux). La valeur du Big Data et de Hadoop repose sur la capacité à la modéliser à la volée des données qui pourraient se révéler utiles et qui, lorsqu’elles sont intégrées à l’environnement de Big Data et d'analyse de données existant, permettent d'obtenir des informations enrichies sur l'activité de l'entreprise.
L’intégration du Big Data : la variable la plus importante
La capacité limitée à exploiter de nouveau le Big Data dépend, dans une large mesure, d’une mauvaise intégration. En effet, l’intégration constitue peut-être la variable la plus importante dans l’équation qui décidera de la réussite du Big Data.
Selon Forrester Research, 80 % de la valeur générée par le Big Data provient de l'intégration de ces données. L’idée générale est de rendre les données qui créent le plus de valeur facilement accessibles aux utilisateurs pertinents et de définir des règles métier et des structures de gouvernance robustes et claires. Des ensembles de données approfondies – comme des données transactionnelles traditionnelles et les historiques clients importants – ont parfois simplement besoin d'être stockés et gérés de manière fiable et robuste, afin que les data scientists et les spécialistes des données puissent les examiner et les modéliser lorsque cela se révèle nécessaire.
L’intégration du Big Data nécessite de voir grand. Dans ce cas, « grand » signifie en réalité « de manière holistique, inclusive et multidimensionnelle ». Il est essentiel de connecter tous les points, d'établir des ponts entre les îlots de données et de lier entre eux les silos des différentes divisions fonctionnelles (ou encore les recomposer entièrement).
Un degré d’intégration élevé, des écosystèmes bien conçus, une architecture unifiée, une culture centrée sur les données et leur analyse : avec ces quelques éléments, il n'est pas nécessaire de disposer de tous les composants ou de tous les détails techniques pour mener à bien des programmes de Big Data. Toutefois, ce sont eux qui permettront aux entreprises de faire la différence et garantiront l'exécution efficace des programmes de Big Data.
Découvrez comment Teradata peut vous aider à saisir davantage d’opportunités grâce au Big Data.
En savoir plus sur nos solutions Big Data