Maîtrisez Docker & Kubernetes, du conteneur à la production
4 jours intensifs pour devenir opérationnel sur la stack cloud-native qui propulse 96% des entreprises Fortune 100. De votre premier Dockerfile au déploiement d’une application multi-services sur un cluster Kubernetes réel.
Docker & Kubernetes : la stack qui propulse le cloud-native
Plus de 75% des entreprises ont adopté la conteneurisation, et Kubernetes est devenu le standard mondial de l’orchestration (Netflix, Spotify, Airbnb, ING…). Maîtriser cette stack ouvre les portes des architectures modernes, microservices et multi-cloud. C’est aujourd’hui l’une des compétences les mieux rémunérées du marché tech.
Portabilité totale
Vos applications tournent à l’identique sur votre laptop, sur AWS, sur Azure ou en on-premise. Plus jamais de « ça marche en dev mais pas en prod ».
Scalabilité automatique
De 1 à 1 000 instances en quelques secondes selon la charge. L’autoscaling Kubernetes (HPA) gère pour vous les pics de trafic sans intervention manuelle.
Déploiements zéro downtime
Rolling updates, blue/green, canary releases : déployez en production aux heures de pointe sans interruption de service ni stress.
Résilience native
Un pod plante ? Kubernetes le redémarre automatiquement. Un nœud tombe ? Les workloads sont redéployés ailleurs en quelques secondes.
Architecture microservices
Découpez vos applications monolithiques en services indépendants, déployables et scalables séparément. Réduisez le risque, accélérez vos releases.
Compétence hautement valorisée
Les profils maîtrisant Docker et Kubernetes figurent dans le top 5 des compétences IT les mieux rémunérées en France (sources : Hays, JobTeaser).
8 modules sur 28 heures, 80% de pratique sur cluster dédié
Une progression conçue pour passer de zéro à un déploiement applicatif production-ready. Chaque journée combine apport théorique court (20%) et travaux pratiques intensifs (80%) sur votre cluster Kubernetes personnel.
Docker — fondamentaux et architecture
Conteneurs vs Machines Virtuelles
Pourquoi les conteneurs ont gagné la guerre. Différences fondamentales avec les VMs (hyperviseur, namespaces, cgroups). Cas d’usage adaptés à chaque technologie.
Architecture Docker
Docker Engine, Docker Daemon, CLI Docker, containerd, runc. La pile technique expliquée pour ne plus jamais être perdu en troubleshooting.
Premiers conteneurs en pratique
Vos premières commandes docker run, docker ps, docker exec, docker logs. Cycle de vie d’un conteneur.
Images Docker & Dockerfile
Anatomie d’une image Docker
Layers, manifest, registry. Comprendre comment une image est structurée et pourquoi cela change tout pour la performance et la sécurité.
Écrire un Dockerfile propre
Les instructions essentielles : FROM, RUN, COPY, ENV, EXPOSE, CMD, ENTRYPOINT. L’ordre optimal pour exploiter le cache de build et accélérer vos pipelines CI.
FROM node:20-alpine AS builder
WORKDIR /app
COPY package*.json ./
RUN npm ci –only=production
FROM node:20-alpine
COPY –from=builder /app /app
USER node
CMD [« node », « server.js »]
Multi-stage builds & optimisation
Réduire la taille de vos images de 1,2 Go à 90 Mo en quelques lignes. Séparer build et runtime. Économiser stockage, bande passante et temps de déploiement.
Registres & sécurité d’images
Docker Hub, Harbor, GitLab Registry, ECR/ACR/GCR. Tagging stratégique. Scan de vulnérabilités (Trivy, Snyk). Bonnes pratiques de sécurité (utilisateur non-root, distroless).
Docker avancé — réseau & persistance
Réseaux Docker
Les drivers réseau (bridge, host, overlay, macvlan). Faire communiquer plusieurs conteneurs sans les exposer publiquement. Diagnostic réseau avec docker network inspect.
Volumes & persistance
Bind mounts vs volumes nommés vs tmpfs. Quand utiliser quoi. Stratégies de backup et migration de données. Cas concrets avec PostgreSQL, MongoDB, Redis.
Variables d’environnement & secrets
Configurer vos conteneurs proprement. Différence entre ENV Dockerfile, -e CLI, env_file, et Docker secrets. Sécurité des credentials.
Debugging de conteneurs
Inspecter un conteneur qui ne démarre pas. Lire les logs, exécuter des commandes docker exec, attacher un shell. Les 10 erreurs les plus fréquentes.
Docker Compose — orchestration multi-services
Le YAML Compose
Structure d’un docker-compose.yml : services, networks, volumes, dépendances. Démarrer un stack complet (front + back + BDD + cache) en une seule commande.
Dépendances & healthchecks
Gérer l’ordre de démarrage (depends_on, condition). Définir des healthchecks pour ne pas démarrer un service avant que sa base de données soit prête.
Profils & environnements multiples
Un seul Compose pour dev, staging, prod. Profils Compose, fichiers d’override, variables d’environnement par environnement.
Cas pratique : WordPress + MySQL + Nginx
Atelier guidé : déployer une stack complète avec reverse proxy, base de données persistante, et configuration sécurisée. Du téléchargement au site fonctionnel en moins d’une heure.
Kubernetes — architecture & premiers pas
Pourquoi Kubernetes ?
Les limites de Docker Compose en production. Ce que Kubernetes apporte de fondamentalement différent : orchestration, auto-healing, auto-scaling, déclaratif. Quand l’adopter.
Architecture K8s
Control plane (API server, etcd, scheduler, controller-manager) et data plane (nodes, kubelet, kube-proxy, container runtime). Comprendre qui fait quoi.
kubectl, votre meilleur ami
L’outil ligne de commande qui sera votre quotidien. Les commandes essentielles : get, describe, logs, exec, apply, delete. Configurer ses contextes pour basculer entre clusters.
Manifests YAML
La syntaxe déclarative Kubernetes. Anatomie d’un manifest (apiVersion, kind, metadata, spec). Comment versionner son infra dans Git.
Kubernetes — ressources essentielles
Pods : la brique de base
Le pod, plus petit objet déployable. Multi-containers pods, init containers, lifecycle hooks. Pourquoi on ne déploie jamais directement un Pod en production.
Deployments & ReplicaSets
Gérer le cycle de vie de vos applications. Rolling updates, rollbacks en une commande, stratégies de déploiement. Le quotidien d’un DevOps Kubernetes.
kind: Deployment
metadata:
name: api-service
spec:
replicas: 3
strategy:
type: RollingUpdate
Services & exposition réseau
ClusterIP, NodePort, LoadBalancer. Comment exposer vos applications correctement à l’intérieur et à l’extérieur du cluster. Service discovery automatique.
ConfigMaps, Secrets & Namespaces
Externaliser votre configuration. Différence ConfigMap vs Secret. Organiser son cluster par environnement, équipe ou application. Quotas et limites de ressources.
Kubernetes avancé — production-ready
Ingress & TLS
Exposer plusieurs applications avec un seul point d’entrée. Nginx Ingress Controller, routing par host et par path. Génération automatique de certificats SSL avec cert-manager & Let’s Encrypt.
Autoscaling (HPA)
Horizontal Pod Autoscaler : scaler automatiquement selon CPU, mémoire ou métriques custom. Vertical Pod Autoscaler. Cluster Autoscaler pour adapter dynamiquement la capacité.
Persistance des données
PersistentVolume, PersistentVolumeClaim, StorageClass. Configurer un stockage durable pour vos bases de données. StatefulSets pour les workloads stateful.
Health checks & resilience
Liveness probes, readiness probes, startup probes. Resource requests & limits. Comment construire des workloads qui survivent aux incidents.
Helm, monitoring & projet final
Helm — le package manager de K8s
Pourquoi Helm est devenu incontournable. Charts, releases, repositories. Templating Go pour réutiliser vos manifests entre projets. Helm Hub et charts publics (Bitnami, Prometheus).
Monitoring avec Prometheus
Installer kube-prometheus-stack en une commande. Métriques essentielles à surveiller (CPU, mémoire, latence, erreurs). Premiers tableaux de bord Grafana. Alerting sur les bonnes métriques.
Projet final : application end-to-end
Atelier final : déploiement d’une application web complète (front + API + BDD + cache) sur votre cluster, packagée en Helm, monitorée par Prometheus, autoscalable, exposée en HTTPS. Le projet à mettre sur votre CV.
Les 8 compétences que vous maîtriserez
À l’issue de la formation, vous serez autonome pour conteneuriser une application, l’orchestrer avec Kubernetes et la déployer en production sur un cluster réel.
Comprendre la différence entre conteneurs et machines virtuelles
Écrire des Dockerfiles optimisés et sécurisés (multi-stage)
Orchestrer des applications multi-services avec Docker Compose
Déployer et gérer des Pods, Deployments et Services K8s
Mettre en place Ingress, TLS, autoscaling et persistance
Packager des applications avec Helm charts
Mettre en place du monitoring (Prometheus) sur un cluster K8s
Diagnostiquer et résoudre les incidents en production
Pour les profils techniques prêts à passer un cap
Public cible
- Développeurs maîtrisant déploiements
- Administrateurs système & SysAdmins
- DevOps junior consolidant ses bases
- Équipes en migration cloud
- Architectes & tech leads
Prérequis
- Bonne maîtrise Linux & CLI
- Notions réseau (TCP/IP, DNS, HTTP)
- Bases YAML recommandées
- Ordinateur portable + cluster fourni
- Expérience Ansible utile (pas obligatoire)
Une pédagogie 100% terrain sur cluster réel
Chaque stagiaire dispose de son propre cluster Kubernetes pour pratiquer sans gêner les autres et sans risque pour son poste. Projet fil rouge : vous construisez et déployez une vraie application production-ready tout au long des 4 jours.
-
☸️
Cluster K8s dédié par stagiaire
Chaque stagiaire dispose de son propre cluster Kubernetes pour pratiquer sans gêner les autres.
-
📦
Déploiement application multi-services
Projet fil rouge sur 4 jours : vous construisez et déployez une vraie application production-ready.
-
🎯
QCM de validation
Vérification objective des concepts clés : architecture, ressources, networking, sécurité, monitoring.
-
🤝
Suivi post-formation 30 jours
Canal dédié pour vos premiers déploiements en production. Le formateur reste joignable.
3 modalités au choix selon votre contexte
Toutes nos formations sont éligibles aux financements OPCO (notamment OPCO Atlas pour le numérique). L’autofinancement reste également possible pour les particuliers et indépendants.
Inter-entreprises
Sessions programmées avec dates fixes, groupe de 3 à 8 stagiaires.
- 28h sur 4 jours consécutifs
- Dates programmées toute l’année
- Versailles · Asnières · Distanciel
- Cluster K8s dédié par stagiaire
- Application finale sur votre CV
Intra-entreprise
Sur votre site, calibré pour votre équipe IT (1 à 10 stagiaires).
- Programme adapté à votre stack
- Migration de vos vraies apps
- Animation sur votre site
- Devis personnalisé sous 48h
- Architecture validée par expert
Individuel sur-mesure
Coaching technique 1-to-1 sur votre infrastructure cloud.
- Coaching individuel intensif
- Mise en pratique sur votre cluster
- Planning flexible (soir/WE)
- Suivi renforcé 60 jours
- Migration accompagnée vers K8s
Cette formation peut être financée à 100%
EF2C Academy est certifié Qualiopi (N° QNW0112) et déclaré organisme de formation (NDA 11788590378). Cette formation est éligible aux financements OPCO et accessible en autofinancement.
Financement OPCO Atlas
Prise en charge totale ou partielle par votre OPCO (notamment OPCO Atlas pour les entreprises du numérique) dans le cadre du plan de développement des compétences. Nous vous accompagnons gratuitement pour le montage du dossier.
Autofinancement
Pour les particuliers, indépendants et TPE : règlement direct possible. Paiement échelonné en 3 fois sans frais sur demande. Devis et convention de formation fournis sur simple demande.
Vos questions, nos réponses
Tout ce que vous devez savoir avant de vous inscrire à la formation Docker & Kubernetes.
Quel niveau Linux faut-il pour suivre la formation ?
Faut-il connaître Ansible avant cette formation ?
Faut-il avoir un compte AWS / Azure / GCP pour pratiquer ?
Quelle est la différence avec la formation Ansible ?
La formation est-elle vraiment finançable à 100% ?
Vais-je vraiment être opérationnel après 4 jours ?
Quelle est la différence entre inter, intra et individuelle ?
La formation est-elle disponible en distanciel ?
Prêt à maîtriser Docker & Kubernetes ?
Réservez votre place dès aujourd’hui ou demandez un devis pour former toute votre équipe IT. Notre équipe vous répond sous 48 heures ouvrées.