Accueil IA et robotiqueBig Data Big Data : plus grand, plus rapide… plus efficace ?

Big Data : plus grand, plus rapide… plus efficace ?

par Edern Rio
big data croissance

S’il est bien un secteur de croissance, c’est celui du cloud et du stockage de données. IDC estime que la base installée devrait doubler d’ici 2023 passant à 11,7 zettaoctets (milliards de téraoctets).

Pourtant, et les investisseurs devraient s’en réjouir, cela ne suffira pas à répondre à la demande mondiale. En effet, si la loi de Moore semble s’essouffler en ce qui concerne la vitesse des processeurs, une nouvelle loi apparaît qui est celle de la production exponentielle de données. Le même institut estime que le volume total de données devrait passer de 33 zettaoctets à 175 zettaoctets en 2025. C’est un rapport de 1 à 10 au bas mot entre besoins et capacités…

datasphère monde

Et toutes ces données sont en train de se déplacer vers le cloud. Les particuliers abandonnent leurs disques durs pour se tourner vers le cloud public et même les entreprises ont réalisé qu’il valait mieux externaliser la gestion de ce cloud. Phénomène que l’on distingue aisément dans les deux graphes ci-dessous.

stockage datas

Stockage des données. Chez les consommateurs (orange), dans les entreprises (bleu clair) et dans le cloud public (bleu foncé).

datas stockage cloud

Données stockées dans le cloud public et dans les datacenters d’entreprises.

L’essor des données en temps réel…

Dans ce même rapport, IDC pointe l’augmentation des données en temps réel. Qu’est-ce à dire ? Ce terme désigne toutes les données qui proviennent des capteurs et sont traitées en temps réel avant d’être renvoyées à l’appareil. Elles servent principalement à assurer des automatismes. Cela peut concerner le fonctionnement d’une machine dans une usine ou bien une voiture connectée et autonome. Mais c’est aussi tout ce qui passe par le cloud à partir de données captées localement : la localisation GPS, le cloud gaming, le chat, etc.

Il ne s’agit plus de stocker et d’archiver, mais bien de traiter de la donnée immédiate, ce qui implique évidemment de l’enregistrer. C’est, par exemple, l’historique de vos déplacements chez Google.

… et de l’analyse en temps réel

Et ces données en temps réel rejoignent une autre tendance de fond pointée par Gartner : l’analyse augmentée et automatisée de données qui permettra d’optimiser les prises de décision des entreprises. Gartner désigne ce processus sous le terme d’”Intelligence continue”.

Il s’agit de rien de moins que d’exploiter les données en permanence pour informer les prises de décision. Pas une fois par mois, ni une fois par semaine, ni même tous les jours ou toutes les heures… Non tout le temps, en permanence.

Au vu de la taille, de la diversité, de la complexité des données, c’est une tâche immense qui devra être automatisée à l’aide du machine learning et va demander aux entreprises des efforts de conceptualisation conséquents.

Nul doute en tout cas que cette notion d’intelligence continue se transforme en buzzword dans les mois ou les années à venir. Le métier de data scientist a de beaux jours devant lui.

Soyez le premier informé des dernières Opportunités Technos directement dans votre boîte mail

Articles similaires

Laissez un commentaire