Comment organiser la résilience de son SI ?

16 mars 2021

Victime d’un incendie dans la nuit du 9 mars,  un datacenter d’OVH a subi de lourdes pertes . Ne faisant heureusement aucun blessé physique, l’accident a néanmoins provoqu é la perte totale du datacenter SBG2 et une partie de SBG1 (quatre salles serveurs). 

Grâce à l’intervention des pompiers, les deux autres datacenters, SBG3 et 4 ont pu être sauvés, a affirmé Octave Klaba, PDG d’OVHCloud sur  Twitter . Ce dernier a d’ailleurs récemment publié une  vidéo pour faire un état des lieux de la situation


Malgré tout, pour maîtriser l’incendie, une coupure de courant totale n’a pas pu être évitée. Ainsi ce sont 3,6 millions de sites web, représentant 464 000 noms de domaines distincts qui se sont retrouvés  hors ligne.  


Organiser la résilience de son système d’information est primordial dès lors que l’on construit un projet. Pour être sûr de ne pas perdre ses données et de voir son site fonctionner malgré certains aléas, l’architecture et le choix de disponibilités des machines doit être réfléchi en amont. Comment faire pour rendre son SI plus résilient ? C’est la question à laquelle nous allons essayer de répondre ! Face à cet événement,  Célyne Courmont , a essayé de comprendre l’impact depuis sa fenêtre de néophyte. En se basant sur des expériences propres à Agaetis et sur l’exemple de l’incendie d’OVH,  Pierre Pironin  nous éclaire sur le fonctionnement des datacenter et sur l’importance de son architecture ainsi que des Disaster Recovery Plan.  Cédric Lamouche  nous explique également la considération qu’il faut apporter à la lecture et la compréhension des contrats. 


Quel est le lien entre la disponibilité de services et les datacenters physiques ?

Prenons l’exemple de Kubernetes, qui est la plateforme permettant d’automatiser le déploiement, la montée en charge et la mise en œuvre de conteneurs d’application sur des clusters de serveurs,  que nous utilisons le plus chez nos clients

Kubernetes est hébergé sur des machines virtuelles (VM) sur des serveurs chez un cloud provider (prenons ici l’exemple d’Azure mais le cas serait tout à fait similaire sur OVH). Un cluster Kubernetes est composé de plusieurs VM et donc de plusieurs serveurs. 

Une des façons de provisionner du Kubernetes dans Azure est d’adopter un modèle Infrastructure as a Service (IaaS), c’est à dire qu’Azure fournit des briques d’infrastructures comme des VM, du réseau, du stockage… 


Toutes ces briques d’infrastructure ont un Service Level Agreement (SLA) ou Service Le vel Objectives (SLO) qui correspond au temps de disponibilité ou d’indisponibilité des briques de l’infrastructure garantie par Azure. 

Plus le SLA est haut, plus la qualité de service est bonne car cela signifie que le temps de service sera le plus élevé possible (pas d’interruption ou le moins possible). Ainsi pour créer des architectures résilientes, on vise un haut niveau de SLA sur les briques d’infrastructure.


Les salles serveurs des datacenters sont remplis d’armoires contenant des racks dans lesquels se trouvent des serveurs physiques qui font fonctionner les machines virtuelles (VM) La VM fonctionne donc dans une armoire de serveur, se trouvant dans un bâtiment. Si ce bâtiment brûle (ou qu’un autre type d’incident se produit) et qu’il n’y avait qu’une machine virtuelle pour héberger la plateforme, toutes les données sont perdues et la SLA descend logiquement à 0, le temps de disponibilité des machines étant nul. 


Pour se prémunir de ce genre d’incidents, les datacenters tels que Strasbourg pour OVH ou encore Amsterdam pour Azure, vont être organisés en zones (SBG1-4 pour OVH par exemple). Nous retrouvons sur un site plusieurs édifices distincts, ayant leur propre alimentation électrique, ventilation, coupe feu… Ces structures sont normalement assez isolées les unes des autres. Ainsi si un problème survient dans un bâtiment, les autres peuvent continuer de fonctionner (hors cas exceptionnels comme l’incendie d’OVH).


Bien définir son architecture : exemple de Kubernetes

Lorsque l’on travaille sur du Kubernetes, on peut par exemple investir dans trois VM au lieu d’une. Kubernetes va lui-même se charger de répartir les tâches de travail sur les 3 machines virtuelles et chacune de ces machines sera placée dans des bâtiments différents. Ainsi, si un problème survient dans un des datacenter, une VM peut se retrouver inexploitable à un moment donné mais les deux autres prendront le relais. Kubernetes y dispatchera toute la charge de travail et continuera de faire fonctionner le tout. Ce sont les zones d’un datacenter. 

Pour Pierre Pironin, spécialiste cloud chez Agaetis, le plus gros problème survenu à OVH, c’est que tous les projets étant hébergés dans le datacenter qui a brûlé et n’ayant pas été répartis sur plusieurs zones ont perdu toutes leurs données. La seule solution est alors d’aller chercher des backups sauvegardés ailleurs (dans un autre cloud ou un autre datacenter par exemple) pour les restaurer. 


L’intérêt de ces différentes zones est également de pouvoir appréhender des bugs. Par exemple, lorsque Azure fait des modifications de son infrastructure, ils s’assurent de ne pas le faire sur toutes les zones en même temps. Ainsi, si ils introduisent un bug dans une zone et que celui-ci en détériore les fonctionnalités, les autres zones vont pouvoir continuer à fonctionner. C’est à la fois une sécurité physique et logique par rapport aux actions de maintenance menées par les équipes d’infrastructure. 


Kubernetes peut absorber la perte de chacune des zones en dispatchant la workload sur les autres VM. Cela permet de s’assurer que les applications hébergées sur le cluster Kubernetes n’ont pas été impactées par la perte d’une zone. 


Le cas des applications hypercritiques

Des incidents comme des incendies, des inondations ou des séismes peuvent faire tomber plusieurs bâtiments et même la totalité d’un site. 


Dans certains cas et dans certaines entreprises on se préserve de ce genre d’événements pour les applications hypercritiques. En plus d’être hébergées sur un cluster Kubernetes dans un datacenter comme les autres, elles sont également hébergées sur un autre cluster Kubernetes identique ou quasi identique dans un autre datacenter, c’est le niveau de service maximum mis en place dans le cadre d’un Disaster Recovery Plan (DRP). Cela permet de prévenir une perte totale des VM et ainsi assurer un relai pour les applications hypercritiques. 


La lecture et la compréhension des contrats

Pour Cédric Lamouche, expert en cybersécurité chez Agaetis, le contrat, souvent lu et signé dans la précipitation ou en complète confiance avec le prestataire est un acte d’engagement fort bipartie. Il est partie prenante de la gestion des risques dans l’entreprise ce qui impose d’en avoir une lecture précise et attentive, il doit surtout être en adéquation avec le contrat de service que vous attendez du prestataire mais aussi des engagements de sécurité et de productions garanties à votre entreprise. Oui, cela peut paraître normal, banal, acté que, par exemple, vos données soient sécurisées sur l’hébergement de votre prestataire mais dans quelles conditions ? Est-ce compatible avec votre activité ? Les piliers fondamentaux de la sécurité qui sont disponibilité, intégrité et confidentialité doivent être, là aussi, évalués. Souvent par questions de coûts finaux on peut faire l’impasse sur des options ou fonctions qui, si elles ne sont pas évaluées, peuvent avoir des conséquences désastreuses pour le business de l’entreprise.


Aujourd’hui suite à la perte de ce datacenter chez OVH combien de sociétés sont lais sées sur le carreaux ? Combien de sociétés se retrouvent sans sauvegarde ? Combien d’entre elles n’ont plus accès à leur service email ?

Il n’est pas trop tard pour reprendre vos contrats, comprendre ce qui est mentionné et voir si les engagements de vos prestataires sont en adéquation avec vos exigences de sécurité et votre continuité d’activité. 


Conclusion

Si il y a une chose à retenir de cet incendie c’est la suivante : au moment du déploiement il faut être rigoureux et bien choisir les disponibilités des machines. Selon les besoins et les projets il faut qu’un DRP soit monté en amont afin de se prémunir de ce type d’ennuis. Adopter une approche résiliente dès le départ c’est s’assurer que son SI continue de fonctionner et de vivre même en cas d’incidents graves. 



Si vous avez des questions ou simplement envie d’échanger sur le sujet n’hésitez pas à nous contacter ! 


Ressources Agaetis

par Achats Agaetis 26 novembre 2025
Le contexte du projet : Groupe Aérospatial souhaitait optimiser le temps de contrôle dimensionnel des réservoirs de son lanceur spatial. Les méthodes traditionnelles, longues et peu satisfaisantes, ralentissaient la production et augmentaient les risques d’erreurs. Le besoin était de développer une application de contrôle qualité et dimensionnel intégrant de nouveaux moyens de mesure plus rapides et précis. L’objectifs : L’objectif principal était de concevoir et déployer une application installée sur un PC concentrateur capable de : lancer différents programmes de contrôle dimensionnel, intégrer des technologies de mesure avancées (profilomètres lasers, trackers laser), et améliorer la précision et la répétabilité des contrôles. Durée de mission : Mission de plusieurs mois, de la conception logicielle à la formation des équipes, en passant par l’intégration et les tests. Mise en œuvre : Agaetis a déployé une approche technique et collaborative : Développement de l’application : architecture logicielle adaptée aux besoins d’intégration industrielle. Collecte et traitement des données : intégration des mesures issues des machines à commande numérique, trackers laser et profilomètres. Optimisation des processus : automatisation des contrôles pour gagner en rapidité et réduire les erreurs. Accompagnement & formation : transfert de compétences aux équipes internes pour assurer la continuité. Résultats obtenus : Temps de contrôle réduit : amélioration notable de la productivité. Précision accrue : fiabilisation des mesures grâce à l’intégration de nouvelles technologies. Réduction des erreurs : contrôles plus rapides et répétables. Compétences préservées : maintien de la connaissance technique dans l’organisation. Facteurs clés de succès : Expertise technique d’Agaetis en développement industriel et IoT . Grande flexibilité dans la collaboration avec le client. Intégration fluide des données issues de différents équipements. Approche orientée impact et résultats mesurables. Et vous ? Vous vous interrogez sur : l’optimisation de vos processus de contrôle industriel, l’intégration de nouvelles technologies de mesure, ou la digitalisation de vos applications qualité ? 👉 Contactez nos experts pour moderniser vos contrôles industriels et accroître votre performance opérationnelle.
par David Walter 26 novembre 2025
Directus est-il l’avenir du Low Code ? 1. Comprendre le contexte : le rêve et les limites du Low Code L’essor des outils Low Code et No Code Les solutions no-code visent à simplifier complètement le processus, offrant des interfaces visuelles de type drag&drop, tandis que les plateformes low-code combinent cette simplicité avec la possibilité d’intégrer du code personnalisé pour des besoins plus avancés. Ces outils ont progressivement trouvé leur place dans les entreprises, permettant de créer des POC rapidement ou de moderniser des processus internes simples. Les premiers outils donnant accès à des fonctionnalités de développement simplifiées sont apparus dans les années 90 et début 2000. Mais par leur coût, ils étaient réservés à de grandes entreprises, mais avaient des possibilités limitées et restaient peu scalables. Les outils low code/no code comme nous les connaissons aujourd’hui se sont popularisés au début des années 2010 en réponse à la demande croissante des entreprises pour la digitalisation de processus métiers. Face à la forte demande de développeurs et à la complexité croissante des projets numériques, ces plateformes ont permis à des utilisateurs non techniques de créer des applications, automatiser des workflows et gérer des données sans écrire de code complexe. Quelques chiffres pour comprendre le phénomène Pour évaluer l’impact du no-code en France, examinons quelques statistiques significatives. Entre 2020 et 2025, le no-code est passé d'une tendance émergente à une solution adoptée par une majorité d'entreprises. Une étude réalisée par Hostinger révèle que 71 % des cadres et dirigeants français ont adopté des solutions no-code en 2025 , contre seulement 25 % en 2020. Cette progression illustre une mutation profonde des pratiques numériques. - No-code France : Cette communauté, initié par Contournement en 2019, est passée de 5 000 membres en 2020 à plus de 13 000 en 2025. Elle est la plus grande communauté francophone autour du No-code et regroupe professionnels, freelances et passionnés. - Le SFPN (Société Française des Professionnels du No-code) : Créée en 2020, son but est de fédérer et représenter le No-code au niveau national. Elle organise des événements tels que le Tour de France du No-code et le No-code Summit, et a vu ses adhérents tripler pour atteindre 1 500 membres actifs en 2025. 
Show More