Les technologies autour du Big Data

Les technologies autour du Big Data icon

Les technologies autour du Big Data

Les Big Data font naitre de nouvelles contraintes réglementaires et de nouvelles façon de concevoir la gouvernance autour des données. Elles favorisent également l'émergence de nouvelles technologies.

Edge Computing

Le Edge Computing est principalement utilisé pour le traitement et l'analyse des données près des points de collecte. En effet, le traitement des données se fait davantage en périphérie du réseau, plus près de la source de données, ce qui réduit la latence et permet de déclencher des actions en temps réel.

La croissance du Edge Computing est donc étroitement liée à l'Internet des objets (IOT). La prolifération des initiatives et des offres en matière d'IOT stimulent la demande de Edge Computing, le réseau distribué d'objets et d'appareils connectés nécessitant un réseau réparti avec traitement, analyse des données, et capacités de stockage.
Le déploiement des technologies cellulaires 5G sera l'un des principaux défis de l'avenir, à la fois pour l'IOT et le Edge Computing.

Sur les marchés verticaux tels que le commerce de détail, où la vente peut être gagnée ou perdue en quelques instants, il n'y a pas d'autre moyen de prendre rapidement les décisions nécessaires, telles que proposer une offre dédiée pour un client spécifique dès son entrée dans le magasin.
Ces décisions ne peuvent pas attendre que de tels événements soient traités dans le cloud de l'entreprise, de sorte que les fournisseurs de cloud tels que Microsoft sont en train de remanier leur plateforme pour pousser les fonctions d'analyse critiques, telles que les algorithmes prédictifs d'IA, en aval vers les devices.

.

Quantum Computing

La course à la suprématie quantique, c'est à dire le point où un ordinateur quantique peut calculer plus vite qu'un ordinateur classique ne pourrait le faire, est en bonne voie, avec Google, IBM et Microsoft en tête du peloton.
IBM a dévoilé le premier ordinateur quantique conçu pour un usage commercial, le Q System One, en mars 2019.

L'IA, et en particulier l'apprentissage automatique, devraient en profiter, les ordinateurs quantiques devant être capable de réaliser des calculs extrêmement complexes, impliquant de très grands ensembles de données, en une fraction du temps nécessaire pour les effectuer aujourd'hui.
Pour les tâches d'IA à forte intensité d'effort comme la classification, la régression, et le clustering, l'informatique quantique pourrait ouvrir de nouvelles perspectives en termes de performance et de mise à l'échelle.

Serverless Computing

Les entreprises qui ont externalisé leurs serveurs vers l'Iaas d' Amazon Web Services (AWS) par exemple, paient généralement à l'avance le montant de capacités serveurs dont ils ont besoin pour l'exécution de leurs processus, qu'ils les utilisent en totalité ou non.

Mais ce type d'IaaS est rapidement remplacé par le serverless, où le fournisseur de cloud gère dynamiquement l'allocation des ressources d'exécution du code. La tarification est basée sur la quantité réelle de ressources consommées par une application, plutôt que sur des unités de capacité achetées d'avance.
Plutôt que de consacrer du temps et des efforts à l'exploitation et à la maintenance des serveurs, les architectures serverless (sans serveur) permettent aux développeurs d'externaliser le matériel et de se concentrer uniquement sur le développement de code à valeur ajoutée.

AWS Lambda est l'une des offres serverless les plus importantes du marché. Ses tarifs sont basés sur le temps de calcul consommé, il n'y a donc pas de frais lorsque le code n'est pas en cours d'exécution. Le serverless va probablement gagner en popularité et devenir le modèle préféré pour le développement d'applications.
Les principaux fournisseurs de Cloud, comme Amazon, Microsoft, Google et IBM, pourraient en bénéficier.

Software Defined Network (SDN)

Le SDN est une architecture qui permet au logiciel, plutôt qu'au matériel, de contrôler le chemin du réseau le long duquel les paquets de données circulent.
L'intelligence contenue dans un équipement réseau est donc transférée vers une couche logicielle, permettant une commande et une programmation centralisées du réseau. Cette technologie change fondamentalement qui contrôle le centre de données.
Le SDN permet un flux de trafic efficace au sein du centre de données, et plus des deux tiers des centres de données adopteront le SDN en tout ou en partie d'ici 2021, selon le Cisco’s 2018 Global Cloud Index report.

La croissance rapide du cloud est à l'origine du développement précoce du SDN. En effet, les cloud providers ont cherché à déployer une technologie qui simplifierait et automatiserait la gestion des réseaux de leurs centres de données. Avec l'évolution du cloud computing, les fournisseurs ont commencé à offrir des services supplémentaires, des options de stockage et des bases de données plus sophistiquées, entraînant la naissance de la plate-forme en tant que service (PaaS) et l'entrée dans l'ère du logiciel qui définit tout (SDE).

Conteneurs

Sur le front des logiciels libres, le développement le plus important est l'arrivée des conteneurs.

Les conteneurs empaquetent ensemble une application logicielle avec ses dépendances, et celle-ci peut être exécutée sur la plupart des serveurs Linux ou Windows.
Ils permettent de déplacer facilement les applications d'une infrastructure IT à l'autre : sur site, sur cloud privé ou public privé.

L'attrait d'un conteneur réside dans le fait qu'on peut le construire une seule fois et l'utiliser n'importe où. Les conteneurs révolutionnent la façon dont les applications sont développées et redéfinissent le concept d'applications Cloud Natives (natives du cloud, c'est-à-dire des applications conçues pour fonctionner uniquement dans le cloud).

Les principaux avantages des conteneurs pour les développeurs d'applications sont :

  • des économies de coûts significatives par rapport à l'exécution de machines virtuelles,
  • une réduction du temps à déploiement,
  • une meilleure évolutivité et une flexibilité pour le portage vers d'autres infrastructures.

Les conteneurs sont un outil clé pour les architectures serverless émergentes au fur et à mesure que les technologies de l'information se déplacent vers le cloud.
Opensourcé en 2013, Docker est rapidement devenu un standard important dans le domaine des conteneurs. Il est supporté par AWS, Microsoft Azure, Oracle, Google Cloud, IBM Cloud, VMware et OpenStack. Le conteneur Linux transforme la vitesse à laquelle les applications peuvent être créées, testées et déployées.
Parmi les leaders dans le domaine des logiciels conteneurisation, on peut citer Docker Swarm, Google Kubernetes, OpenShift de Red Hat et Blox d'Amazon.

Analyses temps réel

La combinaison de données de streaming et d'analyses a le potentiel de générer de la valeur pour les entreprises qui comptent sur une prise de décision rapide.
Voici quelques exemples de cas d'utilisation: prédiction des défaillances mécaniques dans une usine, prédiction basée sur la diffusion en continu des données de capteurs, ou encore amélioration des rendements dans une station de forage pétrolier. Une étude réalisée en 2018 par Harvard Business Review Analytic Services, a révélé que 70 % des entreprises ont augmenté les dépenses consacrées aux solutions d'analyse client en temps réel.

Amazon, Microsoft et Google poussent tous leurs offres d'analyse en temps réel à travers le cloud, pour les industries comme les télécommunications, les transports et les soins de santé.

Cette technologie joue un rôle énorme dans l'amélioration des résultats dans l'ensemble des secteurs, en particulier dans les services bancaires et financiers, et les soins de santé, où ils permettent d'atténuer les risques rapidement et avec précision.

Centres de données mondiaux

Les demandes cumulées pour des solutions d'IoT, de Cloud Computing, de streaming, de jeux, ou encore d'AI, conduit à un goulet d'étranglement sur le marché des centres de données que les géants de l'internet s'empressent de combler. Amazon, Microsoft, Alibaba et Google (ainsi que les opérateurs de télécommunications et les grandes entreprises) construisent des centres de données dans le monde entier à un rythme effréné.

Ces centres de données recueillent, stockent, traitent et diffusent les données qui constituent la matière première de leurs opérations. Comme le sujet de la souveraineté des données gagne aussi du terrain, les entreprises cherchent aussi à investir dans des centres de données périphériques situés plus près de la source de données ou de l'utilisateur final, afin d'éviter les problèmes liés à la réglementation sur la confidentialité des données.

Data Modernisation

Data Modernisation, Big Data

Les équipes de Claranet vous accompagnent dans la réussite de vos projets Data et Big Data

Data Modernisation