• 29 novembre 2016

    Workshop Docker – Niveau avancé

    Vous avez été nombreux à participer aux deux sessions du workshop Docker, niveau avancé, organisé par la Oxalide Academy et animé par  Ludovic Piot, Théo Chamley et Julien Follenfant). Compte tenu des places limitées, nous n’avons pu accueillir que 25 personnes par session afin de garantir une qualité dans les interactions de l’atelier. Pour ceux qui souhaitent voir ou revoir l’atelier voici la vidéo chapitrée :

    • Une étude de cas sur la mise en place d’une application Symfony2/PHP/MySQL sous forme de containers Docker, puis sous forme de pods dans Kubernetes.
    • Présentation de Kubernetes
    • Démonstration de miniKube
    • Démonstration du self-healing en cas de perte de pod et de perte de nœud du cluster Kubernetes sur AWS.

  • 23 novembre 2016

    e-commerçants : comment prévoir l’imprévisible?

    Tribune de Nikola Petrovski et Arcady Ahmed, ingénieurs commerciaux e-commerce chez Oxalide.

    Ventes promotionnelles, n’avons-nous rien oublié ?

    e-commerçant chevronné ou enseigne physique décidée cette année à déployer toute la panoplie de la vente en ligne, vous avez mis tout en oeuvre pour être au top des meilleures pratiques marchandes sur le web. Les solutions omnicanales n’ont plus de secret pour vous et la stratégie marketing est établie sur deux années très chargées. Vous savez ce que signifie fidéliser un client et pour ce faire, vous lui proposerez, si ce n’est déjà fait, votre connaissance quasi intime de ses préférences et ses besoins du moment.

    Et votre stratégie est payante. Que vous ayez opté pour une stratégie Pull, Price ou encore Place ou bien un mix entre elles, les chiffres sont au beau fixe. La fréquentation de votre plateforme est en croissance constante et pour peu que votre cible soit internationale, le site Internet bourgeonne de pages et de fonctionnalités supplémentaires. Bref, tout va bien.

    Et puis, rien ne va plus. Selon vos analystes internes, il semblerait que tout se soit écroulé lors de la dernière opération commerciale. Précisément celle sur laquelle vous réalisez une part substantielle de votre chiffre d’affaires. Les soldes d’été pour les uns, Noël pour les autres, le mondial de football pour d’autres encore…

    Tout était en place, dans les moindres détails marketing et pourtant, les chiffres en sont témoins, le CA est en berne, les acheteurs n’ont pas acheté ce jour-là. La faute au temps pourri ou à un positionnement manqué ? Non. La raison est beaucoup plus objective.

  • 21 novembre 2016

    Velocity 2016 Amsterdam : Le travail à distance, une réalité pour la société Travis CI

    Cécile Aubrun (Ingénieur Technique Web Ops)

    travis

    Pourquoi as-tu choisi la conférence « Building and scaling a distributed and inclusive team »  ?

    De plus en plus d’entreprises proposent à leurs collaborateurs de bénéficier du travail à distance. Je voulais connaître les leviers de Travis CI pour réussir ce challenge et profiter de leur retour d’expérience sur la mise en œuvre du travail à distance sur une partie de leur équipe.

  • 16 novembre 2016

    Velocity 2016 Amsterdam – Faut-il y aller ?

    velocity_2016_oxalide

    Pour parfaire ses connaissances, Oxalide envoie chaque année une équipe à la conférence Velocity. Cette année, Cécile, Emmanuel, Glenni, Guillaume et Maxime ont été les élus pour aller à Amterdam pour cette édition 2016.

    Notre objectif :

    • Se confronter à nos pairs et apprendre de leurs retours d’expérience aussi bien d’un point de vue technique qu’humain.
    • S’inspirer des nouvelles pratiques et tendances techniques pour construire des sites web et des applications encore plus rapides, plus résilients et haute disponibilité.

    velocity_2016_amsterdam_oxalide

    Faut-il y aller en 3 questions :

    • Quelles sont tes impressions sur Velocity ?
    • Quelles conférences recommanderais-tu ?
    • Qu’est-ce que tu as appris ?

    ,

  • 14 novembre 2016

    Gitlab sur Kubernetes

    Introduction

    Dans le dernier post, nous avons vu comment créer un cluster Kubernetes (K8s) prêt pour la production sur AWS avec Kops. Maintenant voyons comment, couplé avec des services managés AWS, on peut utiliser ce cluster pour héberger une application hautement disponible : Gitlab.

    Connaitre Terraform, AWS et Kubernetes sera un plus pour la compréhension de cet article.

    Tout le code source utilisé dans ce post est disponible sur Github.

    Architecture de Gitlab

    Gitlab est un concurrent open-source de Github. Il est composé de plusieurs parties :

    • Une base de données relationnelle (PostgreSQL est le défaut),
    • Un système de fichiers « distribué » pour les dépôts Git,
    • Un serveur Redis pour le cache et les sessions,
    • Une application « core » avec des serveurs Unicorn, SSH et et Sidekiq (tout cela est dans l’image Docker créée par Sameer Naik – merci !).

    Problème

    Le principal problème lorsque l’on crée une application hautement disponible sur K8s/AWS est le stockage, que ce soit sous la forme d’une base de données ou d’un filesystem. Les disques EBS que l’on peut attacher aux instances EC2 auraient été les candidats naturels car Kubernetes sait les gérer. Mais un disque EBS est lié à une availability zone et n’est donc pas hautement disponible. Vous pouvez transporter des données d’une AZ à une autre avec un snapshot, mais ce n’est vraiment pas pratique.

    Architecture cible

    Pour assurer la haute disponibilité sur notre installation Gitlab, nous allons utiliser 2 services AWS :

    • AWS RDS (Relational Database Service) pour fournir une base PostgreSQL HA,
    • AWS EFS (Elastic Filesystem) pour un filesystem HA, accessible via NFS.

    Cela a l’air simple, mais l’implémentation EFS a un petit piège : il y a un point de montage différente pour chaque AZ.

    Redis et Gitlab en tant que tels seront des déploiements K8s.

    Voici à quoi ça ressemble :

    gliphy

    Comme vous pouvez le voir sur ce schéma, nous aurons en fait une instance Gitlab par AZ. Dans chaque AZ, Gitlab a besoin d’accéder au stockage EFS, mais le point de montage change d’une AZ à une autre. Donc pour fournir de la haute disponibilité, nous avons besoin d’au moins 2 instances Gitlab qui utilisent 2 points de montage différents.

    Implémentation

    Ressources AWS – Terraform

    Import des ressources Kops

    Nous allons utiliser Terraform pour créer les ressources AWS nécessaires pour Gitlab. Nous allons avoir besoin d’interagir avec les ressources créées par Kops (le VPC et les subnets) : nous devons donc les importer dans Terraform. Heureusement, la fonctionnalité import a été récemment ajoutée à Terraform ! Il faut juste exécuter les commandes suivantes avec les bons IDs :

    terraform import aws_vpc.kops_vpc vpc-xxxxxx
    terraform import aws_subnet.kops_suba subnet-xxxxxx
    terraform import aws_subnet.kops_subb subnet-xxxxxx
    terraform import aws_subnet.kops_subc subnet-xxxxxx

    Une fois les commandes exécutées, vous devez créer un fichier kops.tf qui contient ces ressources, sinon Terraform essayera de les détruire au prochain run :

    # Resource managed by KOPS DO NOT TOUCH
    resource "aws_vpc" "kops_vpc" {
      cidr_block = "10.0.0.0/22"
      tags {
        Name = "k8s.myzone.net"
        KubernetesCluster = "k8s.myzone.net"
      }
    }
    # Resource managed by KOPS DO NOT TOUCH
    resource "aws_subnet" "kops_suba" {
      vpc_id = "${aws_vpc.kops_vpc.id}"
      cidr_block = "10.0.0.128/25"
      tags {
        Name = "eu-west-1a.k8s.myzone.net"
        KubernetesCluster = "k8s.myzone.net"
      }
    }
    # Resource managed by KOPS DO NOT TOUCH
    resource "aws_subnet" "kops_subb" {
      vpc_id = "${aws_vpc.kops_vpc.id}"
      cidr_block = "10.0.1.0/25"
      tags {
        Name = "eu-west-1b.k8s.myzone.net"
        KubernetesCluster = "k8s.myzone.net"
      }
    }
    # Resource managed by KOPS DO NOT TOUCH
    resource "aws_subnet" "kops_subc" {
      vpc_id = "${aws_vpc.kops_vpc.id}"
      cidr_block = "10.0.1.128/25"
      tags {
        Name = "eu-west-1c.k8s.myzone.net"
        KubernetesCluster = "k8s.myzone.net"
      }
    }

    Une fois ce fichier créé, vous devriez pouvoir exécuter un terraform plan et Terraform ne devrait rien modifier.

  • 07 novembre 2016

    Velocity 2016 – Day 1 : la transformation, la gestion du changement et le management

    Pour parfaire ses connaissances, Oxalide envoie chaque année une équipe à la conférence Velocity. Cette année, elle se déroule en Hollande à Amsterdam.

    Notre objectif :

    • Se confronter à nos pairs et apprendre de leurs retours d’expérience aussi bien d’un point de vue technique qu’humain.
    • S’inspirer des nouvelles pratiques et tendances techniques pour construire des sites web et des applications encore plus rapides, plus résilients et haute disponibilité.

    Le programme complet de Velocity Conf Amsterdam 2016

    Emmanuel Lucas : Directeur de production d’Oxalide

    Souvent la technologie est seule candidate à l’évolution perpétuelle. Mais lorsque l’on s’intéresse au management, on constate que c’est aussi une discipline mouvante qui cherche à s’améliorer ou même à se réinventer. Aujourd’hui, le management est au centre de la transformation d’une société et facilite l’adoption de cette dernière.

    Oxalide travaille sur le bien-être de ses collaborateurs et aux évolutions à apporter en ce sens, c’est pourquoi il s’agit du fil conducteur que j’ai personnellement choisi de suivre à Velocity, je reviendrai certainement avec des choses qui se mangent, mais surtout, je l’espère, avec des retours d’expérience, des idées et des concepts permettant de nous faire tous avancer. Les conférences auxquelles j’assisterai :

    Day 1 :

    • Dousing the fires of occupational burnout : dans un contexte de croissance où les choses changent souvent, un retour d’expérience sur le sujet approprié.
    • Switching gears without stalling: A new developer’s personal journey ; autour des interruptions régulières au travail, des astuces pour limiter leurs impacts sur la qualité et l’efficacité.
    • Onboarding at scale: An engineering problem ; avec la volonté de passer à 200 Collaborateurs en 2019, le onboarding et la montée en compétences vont devenir des éléments clés.
    • Nudge theory: Influencing empowered teams to do the things that matter to you ; toujours dans notre contexte de croissance, comment s’assurer de l’adhésion bienveillante des collaborateurs aux idées importantes permettant de faire évoluer l’entreprise.
    • The Anarchist Cookbook: DevOps and Agile recipes for blowing up the waterfall ; et oui, AGILE est sur toutes les lèvres, un retour d’expérience sur la transformation d’autres sociétés ne sera pas de trop.

    Suivez-nous nos live tweets sur le twitter @oxalide

    ,

  • 03 novembre 2016

    VMWorld 2016 : la team Oxalide y était

    image2016-10-20-13-7-43

    VMWorld est la conférence annuelle de VMWare. Celle-ci a lieu tous les ans, aux USA et en Europe. La team Oxalide était présente au VMWord Europe 2016 qui s’est tenue à Barcelone du 17 au 20 octobre. Cette conférence rassemble 10 000 participants, venus de toute l’Europe mais aussi d’Asie. C’est l’occasion pour VMWare de faire des annonces, d’inviter ses partenaires à faire des retours d’expérience, de proposer des labs, des tables rondes, et beaucoup de sessions. Il y avait cette année 300 sessions!

    Annonces

    Voici les deux annonces principales.

    VMware on AWS

    Bien qu’ayant été effectuée quelques jours avant l’événement, le VMWorld a été pour VMWare l’occasion d’expliquer clairement son positionnement vis à vis du cloud public et d’AWS. Pour rappel, vSphere va bientôt être disponible directement dans AWS, sous le nom « VMware Cloud on AWS ». Cela permettra d’utiliser vSphere sur des hyperviseurs dans AWS, et de faire des vMotion entre son SDDC on-premise et AWS. Une fonctionnalité importante que cela introduit est Elastic DRS, qui permet d’ajouter des hyperviseurs à son cluster vSphere à la manière de ce qui est fait dans un auto-scaling group.

    http://www.vmware.com/cloud-services/vmware-cloud-aws.html

    vSphere 6.5

    La prochaine version majeure de vSphere a été annoncée lors de la grande keynote d’ouverture. C’est l’occasion pour vCenter de se doter d’outils modernes et de proposer une API REST, et une interface de gestion en HTML5 ! Le support des conteneurs Docker est également à l’ordre du jour ! Cette nouvelle mouture est très orientée cloud, et permettra par exemple de faire des clouds hybrides. Un système de gestion de mises à jour est maintenant inclus.

    http://www.vmware.com/content/dam/digitalmarketing/vmware/en/pdf/products/vsphere/vmware-whats-new-in-vsphere-6.5-datasheet.pdf

    Tendances

    Les deux grosses tendances de ce VMWorld sont le SDDC et le passage à un modèle de cloud hybride. La vision de VMWare aujourd’hui est la suivante :

    image2016-10-20-13-16-50

    Ce modèle permet de déployer des applications dans des environnements 100% as-Code, privés ou publics.

    Voici selon VMWare les principaux problèmes auxquels nous faisons face et que le SDDC peut adresser :

    • Des budgets qui se réduisent
    • Des demandes non prévisibles
    • De la latence qui peut apparaître
    • Un consommation énergétique élevée
    • Un TCO élevé
    • Beaucoup d’actions manuelles
      • pouvant induire des erreurs
      • prenant beaucoup de temps
      • donc un time-to-market élevé

    La solution SDDC de VMWare comporte les avantages suivants :

    • Un management unifié
    • Une grande simplicité d’utilisation
    • La robustesse d’une solution éprouvée

    Pour le client, cela apporte de la valeur à plusieurs niveaux :

    • De l’agilité (selon Gartner, c’est à 66% la première raison de migrer dans le cloud)
    • De l’économie de temps
    • De la simplicité dans les déploiements
    • Une réduction des risques
    • Une grande évolutivité

    Intéressons-nous aux éléments qui composent le SDDC :

    Du matériel x86 standard avec des disques intégrés, permettant l’utilisation de vSphere + VSAN :

    image2016-10-20-13-27-4

    NSX qui permet de virtualiser le réseau :

    image2016-10-20-13-33-20

    Le SDDC permet donc aux clients de consommer de la ressource à la demande, à la manière d’AWS. Amadeus, qui est une grosse entreprise qui gère le backend de la plupart des sites de réservation de vols, d’hôtels, etc. a fait une présentation que j’ai trouvée très intéressante, sur leur utilisation du SDDC, avec VIO. Ils sont, je pense, un exemple à suivre en terme d’agilité, en étant capable de tout déployer as-Code. Ils avaient fait la même présentation à l’OpenStack Summit d’Austin, la vidéo est juste dessous :

    Produits/Lexique

    VMWare propose une gamme de produits très large. Voici un aperçu des produits phares (qui nous intéressent) dont l’entreprise a beaucoup parlé pendant cette conférence, ainsi que certains concepts.

    • Cloud Foundation est le nom de l’offre SDDC (Software Defined DataCenter) qui regroupe les produits VMware’s vSphereVirtual SAN et NSX.
    • vSphere est le produit que nous connaissons tous, le produit d’origine regroupant ESXi et vCenter afin de créer des plateformes de virtualisation hautement disponibles
    • Virtual SAN, abrégé VSAN, est le nom du produit permettant de faire du SDS (Software Defined Storage). L’idée est de mettre des disques directement dans les ESXis et de créer un RAID logiciel sur ces disques. À la manière de CEPH, les blocs sont répliqués sur d’autres ESXis afin d’assurer l’intégrité des données
    • NSX est le nom du produit permettant de faire du SDN (Software Defined Network).
    • VMware Cross-Cloud Architecture est un outil qui permet de gérer des ressources dans plusieurs clouds, (SDDC on-premise ou clouds publics) via une interface unique.
    • SDDC (Software Defined DataCenter) est un concept qui consiste à pouvoir décrire une stack complète (réseau, stockage, compute) dans des fichiers de provisionning qu’il suffit de lancer via un outil d’automatisation pour créer une stack.
    • HCI (Hyper-Converged Infrastructure) consiste à regrouper au sein du même matériel les unités de calcul et le stockage. Cela signifie qu’au lieu d’utiliser un NetApp, avec du switching entre les ESXis et le NetApp, on utilise directement les disques des hyperviseur, avec des technologies telles que VSAN.
    • VIO (VMWare Integrated Openstack) est la distribution Openstack de VMWare. Celle-ci utilise NSX pour le réseau, et VSAN pour le stockage.

    Conclusion

    Cet événement est l’occasion de se rendre compte de l’énorme gamme de produits proposés par VMWare, et d’écouter des témoignages sur la façon dont ont été intégrés ces produits dans les plus grands groupes, avec un retour d’expérience sur la valeur apportée. Si l’on devait conclure par quelques mots cet évènement, la liste serait :

    • SDDC
    • Cloud
    • API
    • IaaS
    • Agilité
    • Automatisation
    • Time-to-Market

     

    Voici le lien regroupant la liste complète de toutes les annonces : https://www.vmworld.com/en/europe/whats-new.html

    Auteur Valérian Beaudoin – ITWO chez Oxalide

  • 02 novembre 2016

    Kubernetes sur AWS – Kops

    Kubernetes est aujourd’hui la solution leader sur le marché des orchestrateurs de conteneurs. Sa promesse est de standardiser la façon dont on fait tourner des applications, sans avoir à se soucier de l’infrastructure sous-jacente : bare-metal, cloud public ou privé.

    AWS est le leader sur le marché des clouds publics, il est donc important de pouvoir faire tourner Kubernetes facilement dessus. Dans ce post, je vais vous montrer, depuis 0, comment créer un cluster Kubernetes prêt pour la production sur AWS. Dans un post futur, j’expliquerai comment faire tourner une application relativement complexe -Gitlab- en complète haute disponibilité sur ce cluster.

    Ce post demande un certain nombre de connaissances à propos d’AWS et de Kubernetes. Vous devriez être à l’aise avec les concepts qui suivent.

    Pour AWS :

    • La CLI AWS,
    • Les bases du réseau sur AWS,
    • Les Hosted Zones Route53,
    • Les buckets S3,

    Pour Kubernetes :

    • Ce que c’est (duh),
    • kubectl
    • L’architecture basique de Kubernetes.

    Kops

    Jusqu’ici, faire tourner Kubernetes (K8s) sur AWS a toujours été compliqué et relativement long si on voulait un cluster de production. Le script kube-up.sh, bien que rapide, n’était clairement pas suffisant pour la production : pas de groupes d’auto-scaling, pas de gestion du VPC, etc.

    Cela est en train de changer, surtout grâce à Kops. Kops est un outil en cours de développement par le « special interest group » AWS de K8s. Écrit en Go, il est fait pour gérer des clusters Kubernetes. Il permet de créer et personnaliser de bien meilleures installations :

    • Auto-scaling pour les workers (pour du self-healing),
    • Haute-dispo possible pour le(s) master(s),
    • Personnalisation du VPC et des sous-réseaux utilisés,
    • La communication inter-pods est faite avec le routing AWS natif par défaut,
    • Possibilité d’exporter la stack Terraform correspondante au cluster.

    Créer un cluster simple avec Kops

    Pour les besoins de cet article, je vais créer un cluster simple : 1 master et 3 workers dans 3 Availability  Zones. Voici la procédure avec Kops. Vous avez besoin des choses suivantes :

    • Avoir déclaré un profile AWS dans le fichier ~/.aws/credentials,
    • Avoir créé un bucket S3 pour stocker l’état de Kops,
    • Avoir créé une Hosted Zone Route53 dans le même compte AWS (Kops va créer les enregistrements nécessaires pour le fonctionnement du cluster).

    Vous pouvez alors déclarer votre cluster :

    export AWS_PROFILE=my-profile
    export KOPS_STATE_STORE=s3://my-kops-bucket
    kops create cluster --cloud=aws \
      --dns-zone=k8s.myzone.net --master-size=t2.medium \
      --master-zones=eu-west-1a \
      --network-cidr=10.0.0.0/22 --node-count=3 \
      --node-size=m4.large \
      --zones=eu-west-1a,eu-west-1b,eu-west-1c \
      --name=k8s.myzone.net
    À ce point, seule la description du cluster est créée, pas le cluster lui-même. Vous pouvez toujours modifier chaque option en éditant le cluster :
    kops edit cluster k8s.myzone.net
    Et quand vous avez terminé, vous pouvez lancer réellement la construction du cluster :
    kops update cluster k8s.myzone.net --yes
    Après quelques minutes, votre kubectl devrait pouvoir se connecter à votre nouveau cluster :
    kubectl get nodes
    NAME                                           STATUS    AGE
    ip-10-0-0-159.eu-west-1.compute.internal       Ready     1d
    ip-10-0-0-213.eu-west-1.compute.internal       Ready     1d
    ip-10-0-1-105.eu-west-1.compute.internal       Ready     1d
    ip-10-0-1-208.eu-west-1.compute.internal       Ready     1d

    Mettre à jour un cluster

    Kops permet également de mettre à jour un cluster K8s en production, sans downtime, pour peu que vous ayez une installation multi-masters. Vous devez simplement modifier le paramètre kubernetesVersion :

    kops edit cluster k8s.myzone.net

    Quand vous appliquez les changements, Kops fera automatiquement un rolling-upgrade du cluster :

    kops update cluster k8s.myzone.net --yes
    kops rolling-update cluster k8s.myzone.net --yes

    Conclusion

    Kops permet de créer et gérer facilement des clusters Kubernetes sur AWS, avec la production pour but. Cette solution est bien plus facile et meilleure que tout ce qui existait auparavant. Elle permet aussi une large palette de personnalisations.

    Dans le prochain post, je montrerai comment utiliser les services managés AWS avec Kubernetes pour faire tourner des applications (et leurs données et bases de données) avec de la vraie haute disponibilité.

    Auteur : Théo Chamley – Consultant Architecte DevOps chez Oxalide.

  • 25 octobre 2016

    Oxalide certifiée Advanced Consulting Partner pour AWS

    Oxalide devient l’une des entreprises françaises certifiées Advanced Consulting Partner par Amazon Web Services et confirme son savoir-faire sur le Cloud AWS.

    Oxalide marque une nouvelle étape dans son expertise Amazon Web Services (AWS) et devient Advanced Consulting Partner  du réseau de partenaires AWS, validant ainsi les compétences de ses équipes et la qualité de ses services délivrés sur le Cloud AWS.

    Advanced Consulting Partner, la démonstration du savoir-faire sur AWS

    Les secteurs les plus soumis aux contraintes du web ont besoin de fondations techniques solides. Le web est une philosophie qu’il faut comprendre et embrasser pour réussir. Dans sa démarche DevOps, Oxalide cherche chaque jour à transmettre cette philosophie à ses clients, pour qu’elle devienne le socle fiable de leurs activités.

    Mais un bon état d’esprit ne suffit pas. Il faut aussi avoir à ses côtés le garant de la réussite de sa migration, l’architecte rigoureux de son infrastructure, le partenaire créatif dans le déploiement de son code et l’ingénieur avisé de son automatisation. C’est pour le cumul de ces qualités, de l’expérience et de ces compétences qu’Oxalide aujourd’hui se voit certifié Advanced Consulting Partner AWS.

    Après notre prix décerné en mai 2016 de la meilleure croissance AWS 2015, notre stratégie commerciale se renforce sur le Cloud AWS. Depuis le début de l’année, plus de la moitié de nos nouveaux clients sont séduits par notre expertise agile d’adoption du Cloud. Nous répondons à un besoin croissant d’accompagnement et de transformation des usages vers le Cloud Public“, souligne Stéphane da Mota, Directeur Commercial & Marketing chez Oxalide.

    Oxalide, incontournable sur le Cloud et les infrastructures critiques

    De nombreux “pure players” ont bâti leur succès sur le Cloud AWS, parce qu’ils ont compris, il y a 10 ans déjà, qu’exister et se maintenir sur le web exige de la souplesse, de l’adaptation, de la réactivité. C’est également l’apanage de la maturité numérique et dans cette marche vers la réussite, les entreprises inspirées profitent des performances d’un Cloud à la hauteur de leurs projections de croissance.

    A ce jour, plus d’un quart des clients d’Oxalide a choisi de migrer une partie ou la totalité de son infrastructure vers le Cloud AWS et officialise à ce titre sa stratégie d’avenir. Oxalide est un partenaire de choix pour permettre aux clients de mettre en place leur stratégie IT sur le Cloud AWS.

    Parce que chaque client est unique, Oxalide s’assure de leur proposer, au sein d’un programme d’accompagnement soutenu et diversifié, les solutions qui sauront renforcer leur business et ceci de l’audit à la migration en passant par le conseil sur l’architecture.

  • 28 septembre 2016

    La gestion de crise, un mouvement permanent

    elu

    Si une crise fait partie des événements potentiels de la vie d’une entreprise, en sortir de façon rapide et efficace, est une question de préparation. Dans l’IT et l’e-commerce, la crise concerne toute entreprise dont le chiffre d’affaires et la survie dépendent de sa plateforme.

    Son infogéreur est-il prêt à tous les cas de figure ?

    Orchestrer les bonnes pratiques : formaliser les processus de crise

    Qu’est-ce qu’une crise ? D’après le dictionnaire, c’est un moment très difficile dans la vie de quelqu’un, d’un groupe, dans le déroulement d’une activité… Euphémisme pour décrire une situation aux conséquences potentiellement très graves pour l’entreprise ou le client, soudaine et brutale, inattendue, pour laquelle les mécanismes et réactions habituels sont inadaptés.

    Si les définitions données peuvent diverger, les bonnes pratiques en gestion de crise sont connues. Dans le domaine de l’IT, l’ANSSI à ce titre édite un guide à destination des entreprises afin de les aider à construire et optimiser leurs processus de sortie de crise. C’est un guide théorique qui constitue une base extrêmement fiable mais rien ne vaut l’expérience des événements intenses.

    Les grands moments commerciaux, sportifs, culturels ou encore politiques sont déjà susceptibles de générer sur un site Internet une activité exceptionnelle. Et l’on sait que seule une bonne préparation est capable d’endiguer d’importants pics de charge. Mais que se passe-t-il en cas d’incendie, de malveillance, de défaillance ou toute autre situation d’origine humaine, technologique ou environnementale grave ?

    Aucune équipe, aussi compétente soit-elle, ne pourra réagir correctement si elle ne dispose pas de processus spécifiques formalisés. Parce que face à la crise, il est facile de céder à la panique et aux débordements, une sorte d’état d’urgence orchestré doit se substituer aux pratiques régulières. Mais pour que l’organisation soit efficace, il faut avoir prévu le pire… avant.

Newsletter

Inscrivez-vous et tenez vous au courant de l’actualité Oxalide