Dans un monde où la souveraineté numérique, la résilience et la scalabilité sont devenues des enjeux stratégiques, de plus en plus d’entreprises se tournent vers une stratégie multi-cloud. Objectif : éviter la dépendance à un seul fournisseur (vendor lock-in), optimiser les performances et garantir la disponibilité des services critiques. Mais très vite, un piège se referme : l’explosion des coûts, la complexité d’orchestration, la duplication des ressources…
« Chaque équipe utilisait son cloud préféré. Rien n’était compatible. Le jour où on a voulu migrer un service de staging vers la prod, tout a cassé. »
Beaucoup d’équipes commencent en mono-cloud, avec les outils maison du provider. Ça fonctionne… jusqu’au jour où on veut :
changer de cloud pour une question de coût ou souveraineté,
déployer dans un autre pays,
ou isoler des services sensibles.
Si ton stack est verrouillé sur un provider, t’es piégé.
💡 Solution : standardiser ton socle technique pour qu’il soit portable :
Conteneurisation (Docker, Podman) → packager tout de la même façon.
Orchestrateur commun (Kubernetes, Nomad) → une seule logique de déploiement.
Infrastructure as Code (Terraform, Pulumi) → tout est versionné, réutilisable.
Résultat ? Tu peux répliquer un environnement complet sur un autre cloud en quelques heures. Sans tout réécrire.
🧰 Étape 2 — Choisir ses clouds avec une logique de mission
« Pourquoi notre frontend est sur Azure, le backend sur AWS et la base chez OVH ? — Personne ne savait. »
Le multi-cloud n’a de sens que si chaque service est à sa place :
stockage froid sur un provider éco,
IA sur un cloud hyper spécialisé,
data sensible sur un hébergeur souverain ou auto-hébergé.
C’est pas une question de techno. C’est une décision de bon sens, motivée par :
la sécurité,
les coûts,
la conformité.
Et comme on dit toujours, pas tous les oeufs dans le même panier.
💡 Étape 3 — Penser FinOps dès le début
« On pensait que le staging coûtait 100€/mois. La facture : 480. Une base oubliée, deux volumes jamais supprimés, et des instances qui tournaient la nuit. »
Dans le multi-cloud, les coûts s’éparpillent. Tu ne les vois pas venir. Penser FinOps, ce n’est pas juste installer un outil de suivi. C’est :
estimer les coûts avant chaque déploiement,
automatiser l’extinction des environnements non critiques,
éviter la duplication inutile (ex: pas 3 bases SQL pour 3 microservices).
En intégrant ces réflexes tôt, tu évites les mauvaises surprises. Et surtout, tu gardes la main. Pas de factures en souffrance.
🔐 Étape 4 — Sécurité : c’est toi le garant
« Notre stockage objet était public. Par défaut. Et personne ne l’avait vu. »
Chaque cloud a sa façon de gérer les accès, les secrets, les logs… Et ça rend le multi-cloud dangereux si tu ne centralises pas ta sécurité.
Une stack multi-cloud doit avoir :
un point unique de gestion des secrets,
des identités gérées via un SSO ou OIDC,
une politique claire de journalisation et d’audit.
Tu ne peux pas tout vérifier à la main. Tu dois t’outiller, documenter, automatiser.
La souveraineté, ce n’est pas juste choisir un cloud français. C’est assumer la responsabilité de tes données, partout.
📡 Étape 5 — Supervision et contrôle : savoir, pas espérer
« Un jour, un cluster K3s est tombé. Personne n’a été alerté. Les logs n’étaient pas centralisés. On a passé 2h à chercher ce qui se passait. »
Dans un système distribué, c’est ta visibilité qui fait ta résilience. S’il te manque un dashboard, un log, un backup, tu es aveugle. Et vulnérable.
C’est pourquoi dès le départ, il faut :
superviser tous les clusters et clouds dans un seul outil (Grafana, Datadog, etc.),
agréger les logs et les erreurs dans un endroit unique,
automatiser les backups entre les clouds, et tester leur restauration.
Pas besoin d’un gros budget. Juste d’une stratégie claire. Et d’une règle simple : aucune brique ne doit être orpheline.
Envie d’un audit gratuit de votre stack actuelle ou de discuter stratégie multi-cloud ?
Since the dawn of technology, we’ve built tools to transcend our limitations. Computing is perhaps the most emblematic of these efforts. From machines capable of executing only the most basic mathematical instructions, we crafted entire layers of abstraction — languages, frameworks, operating systems — that allowed us to harness raw power through human-readable logic.
Programming languages, at their core, are a translation. They turn the unfathomable speed of silicon into something that the human mind can model, predict, and build upon.
But now, we’re tempted to remove that layer of human intervention. Not because it has become obsolete. But because it has become too slow.
Engineers as the bottleneck
Let’s face it — we, the engineers, are no longer fast enough. Not fast enough for the market. Not scalable enough for the investors. Not efficient enough for the production pipelines we ourselves helped build.
And so, enter AI.
Language models. Intelligent agents. These tools promise to eliminate the slowest element in the feedback loop: us. They can generate code. Deploy infrastructure. Analyze and refactor logic.
From a purely mechanical standpoint, it’s genius. From a systemic standpoint, it’s dangerous.
The illusion of meta-optimization
Replacing a human developer with an AI doesn’t optimize the system. It optimizes the optimization process.
Instead of improving the way we build software, we’re now building systems that simulate the process of building software — faster, cheaper, and with no regard for the subtleties that made engineering a discipline in the first place.
It’s a form of recursion: automation for automation’s sake.
But here’s the catch: Producing working code is not the same as delivering value. Code is just the surface. Beneath it lie trade-offs, ethics, sustainability, and responsibility — none of which are encoded in the output of a language model.
Not yet. And certainly not by default.
Acceleration ≠ Progress
The desire to go faster is understandable. But faster does not mean further.
History shows us that meaningful progress is not linear. It comes from iteration, reflection, divergence. From the uncomfortable slowness of deliberate thought.
If we accelerate blindly, we risk reinforcing broken systems. Automating technical debt. Scaling inefficiency. Creating fragility at global scale — wrapped in the illusion of innovation.
This is not speculative fiction. It’s already happening.
A dangerous decision
So let’s be clear: Replacing developers with AI is not just a technical shift. It’s a strategic one. A political one. A civilizational one.
The question is no longer “can we automate this?” It’s “should we?”
And it’s not a question for developers. It’s a question for decision-makers. For those who shape policy, allocate capital, influence direction.
Choosing to eliminate the human from the software loop may feel like pragmatism. But it’s not. It’s short-termism, disguised as innovation.
We won’t gain time. We’ll lose meaning.
Human-enhanced, not human-replaced
AI is a revolution. And like every revolution, it comes with responsibility.
Used wisely, AI can support engineers. It can reduce friction. Automate the boring. Assist in complexity.
But it should not become the engineer. Not yet. Maybe not ever.
Because the value of engineering is not just in what we build — but in how, and why.
If we abandon that, we’re not just replacing workers. We’re abandoning ownership. And eventually, we’ll lose trust in the very systems we depend on.
Final thoughts: an alarm, not a rejection
This article isn’t a rejection of AI. I’m an engineer. A builder. A techno-optimist.
But I also believe in human-centered technology. In purposeful innovation. In building systems that serve humanity — not replace it.
Automate the tools. Streamline the processes. But keep the humans where it matters: at the helm.
Not to control the AI. But to remind ourselves what we’re building for in the first place.
Quand les hooks, les appels d’API, les mutations d’état et le rendu JSX cohabitent dans un même fichier, tu perds le contrôle. Le code devient impossible à tester, à maintenir, à faire évoluer. Tu veux éviter ça ? Lis ce qui suit.
Votre stack vous ralentit ?
Je vous propose un audit technique gratuit pour identifier les freins à la performance ou à la maintenabilité.
Tu veux scaler un projet React Native ? Alors sépare. Si tu ne peux pas expliquer en 5 secondes où est la logique métier d’un écran, c’est que tu as échoué à architecturer ton app.
Découvrez comment utiliser l’architecture hexagonale avec ReactJS
L’architecture hexagonale, également connue sous le nom de « Ports et Adaptateurs », est une approche de conception logicielle qui vise à créer des applications flexibles, maintenables et testables. Elle sépare clairement les préoccupations entre le domaine métier, l’infrastructure et l’interface utilisateur.
Dans ce tutoriel, nous allons explorer comment structurer une application React avec Redux en utilisant une architecture hexagonale. Nous prendrons l’exemple d’une gestion d’utilisateurs pour illustrer les concepts, en suivant la structure de projet détaillée ci-dessous.
Votre stack vous ralentit ?
Je vous propose un audit technique gratuit pour identifier les freins à la performance ou à la maintenabilité.
import React from 'react';
import { Link, Outlet } from 'react-router-dom';
const DashboardLayout: React.FC = () => {
return (
<div className="dashboard-layout">
<nav>
<ul>
<li><Link to="/users">Utilisateurs</Link></li>
{/* Autres liens de navigation */}
</ul>
</nav>
<main>
<Outlet />
</main>
</div>
);
};
export default DashboardLayout;
5. Point d’entrée principal
app/App.tsx
import React from 'react';
import { BrowserRouter as Router, Routes, Route } from 'react-router-dom';
import DashboardLayout from './layout/Dashboard';
import FullPageLayout from './layout/FullPage';
import UserRoutes from './routes/userRoutes';
const App: React.FC = () => {
return (
<Router>
<Routes>
<Route path="/" element={<DashboardLayout />}>
{/* Routes principales */}
<Route path="users/*" element={<UserRoutes />} />
</Route>
{/* Routes avec un autre layout */}
<Route path="/login" element={<FullPageLayout>{/* Composant de connexion */}</FullPageLayout>} />
</Routes>
</Router>
);
};
export default App;
Styles (styles/)
Le dossier styles/ contient vos fichiers CSS ou SCSS pour styliser votre application.
Utils (utils/)
Le dossier utils/ contient des fonctions utilitaires réutilisables dans votre application.
Conclusion
En adoptant une architecture hexagonale dans votre application React avec Redux, vous bénéficiez d’une séparation claire des responsabilités :
Domaine : Contient la logique métier pure et est indépendant des frameworks et bibliothèques.
Infrastructure : Gère les détails techniques comme les appels API et le stockage.
Application : Gère l’interface utilisateur et l’état de l’application.
En modifiant les thunks pour qu’ils utilisent les services du domaine plutôt que d’accéder directement à l’infrastructure, vous respectez pleinement les principes de l’architecture hexagonale. Cela permet de garder votre couche d’application indépendante des détails techniques de l’infrastructure.
Cette architecture facilite la maintenance, les tests et l’évolutivité de votre application.
Vous pouvez consulter ma proposition d’archi hexagonal en Golang
Gérer le consentement
Pour offrir les meilleures expériences, nous utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations des appareils. Le fait de consentir à ces technologies nous permettra de traiter des données telles que le comportement de navigation ou les ID uniques sur ce site. Le fait de ne pas consentir ou de retirer son consentement peut avoir un effet négatif sur certaines caractéristiques et fonctions.
Fonctionnel
Toujours activé
L’accès ou le stockage technique est strictement nécessaire dans la finalité d’intérêt légitime de permettre l’utilisation d’un service spécifique explicitement demandé par l’abonné ou l’utilisateur, ou dans le seul but d’effectuer la transmission d’une communication sur un réseau de communications électroniques.
Préférences
L’accès ou le stockage technique est nécessaire dans la finalité d’intérêt légitime de stocker des préférences qui ne sont pas demandées par l’abonné ou l’internaute.
Statistiques
Le stockage ou l’accès technique qui est utilisé exclusivement à des fins statistiques.Le stockage ou l’accès technique qui est utilisé exclusivement dans des finalités statistiques anonymes. En l’absence d’une assignation à comparaître, d’une conformité volontaire de la part de votre fournisseur d’accès à internet ou d’enregistrements supplémentaires provenant d’une tierce partie, les informations stockées ou extraites à cette seule fin ne peuvent généralement pas être utilisées pour vous identifier.
Marketing
L’accès ou le stockage technique est nécessaire pour créer des profils d’internautes afin d’envoyer des publicités, ou pour suivre l’utilisateur sur un site web ou sur plusieurs sites web ayant des finalités marketing similaires.