Docker est un puissant outil DevOps pour mettre vos applications dans des conteneurs.
Où que vous utilisiez un conteneur, l'environnement, et toutes ses dépendances, sera identique. Docker est donc idéal pour exécuter des applications distribuées.
Docker est un outil open-source qui vous donne la possibilité de construire des conteneurs pour vos applications.
Infrastructure as Code (IaC) consiste à gérer l'infrastructure (réseaux, machines virtuelles, équilibreurs de charge et topologie de connexion) dans un modèle descriptif, en utilisant le même versionnage que l'équipe DevOps utilise pour le code source.
Le monitoring fournit des informations sur les performances d'une application et sur ses modes d'utilisation.
L'un des objectifs du monitoring est de garantir une haute disponibilité en réduisant au minimum le temps de détection et le temps d'atténuation (TTD, TTM).
En d'autres termes, dès que des problèmes de performance ou autres surviennent, des données de diagnostic sur ces problèmes sont transmises aux équipes de développement par le biais d'une surveillance automatisée (le TTD).
Les micro-services décrivent le modèle architectural de composition d'une application distribuée à partir de services pouvant être déployés séparément, qui remplissent des fonctions commerciales spécifiques et communiquent par le biais d'interfaces web.
L'intégration continue (IC) est le processus qui consiste à automatiser la construction et le test du code chaque fois qu'un membre de l'équipe apporte des modifications au contrôle de version.
L'intégration continue encourage les développeurs à partager leur code et leurs tests unitaires en fusionnant leurs modifications dans un référentiel de contrôle de version partagé après chaque petite tâche.
La livraison continue (Continuous Delivery - CD) est le processus de construction, de test, de configuration et de déploiement d'un environnement de construction à un environnement de production.
Des environnements de test ou de mise en scène multiples créent un pipeline de diffusion pour automatiser la création de l'infrastructure et le déploiement d'une nouvelle version.
La culture DevOps met l'accent sur les petites équipes multidisciplinaires, qui travaillent de manière autonome et assument collectivement la responsabilité de la manière dont les utilisateurs réels vivent leur logiciel.
Tout ce que fait une équipe DevOps vise à améliorer l'expérience des clients en direct.
Lors de la première partie, nous avons évoqué la complexité de choisir une charte Helm, pour mettre en place un cluster Elasticsearch sur kubernetes. Dans cette 2ème partie, nous allons aller encore plus loin et nous aventurer dans les périples des opérateurs.
Dans cet article, retrouvez le point de vue de Brad Shimin, Service Director chez Global Data IT Technology and Services sur les liens entre conteneurs et cloud, exposé sur son blog.
Elasticsearch fait partie des logiciels open source incontournables. Les cas d’usage sont variés, du fait de sa capacité de stockage, de recherche et d’analyse des données. Il est apprécié par les développeurs pour la richesse de son API RESTful avec une prise en main assez rapide, mais également pour l’implémentation de la bibliothèque client dans plusieurs langages. Coté Ops, Elasticsearch fait partie des systèmes distribués les moins pénibles lors de la gestion de la scalabilité, de la sauvegarde et de la restitution de données.