Format hybride à distance
Bootcamp Analytics Engineer (FOAD)
Formation en 7 semaines combinant e-learning asynchrone et classes virtuelles 100% à distance (PC, tablette ou smartphone).
Le contenu reste accessible à la fin du bootcamp
Snowflake, dbt, Airflow, Docker, Git, SQL, DataViz (Tableau, Metabase), Cube.
.webp)
Durée de formation
Aux formations, contenus, mises à jour
De Data Analyst à Analytics Engineer opérationnel en 7 semaines
Tu connais Python. Tu sais faire des dashboards. Tu manipules des données... Mais aujourd’hui, les entreprises recrutent des profils capables de
Construire des pipelines end-to-end propres
Industrialiser les transformations
Garantir la qualité des données
Documenter et versionner comme un senior
Tout ce qu’il faut savoir sur la formation
Module 1 — Cube
Formation Cube.js pour maîtriser la couche sémantique et servir des données fiables dans un contexte moderne.
Vous apprendrez à modéliser des métriques et dimensions, structurer une API analytique performante et connecter vos données à des outils de BI ou des applications custom.
Le programme couvre la gestion du caching, des performances et des accès, ainsi que les bonnes pratiques de modélisation orientée business.
À travers des cas concrets, vous construisez une couche data cohérente, scalable et directement exploitable.
Résultat : vous rendez les données accessibles, fiables et prêtes à être utilisées à grande échelle, y compris dans un contexte agentic.
Module 2 — Snowflake
Vous allez concevoir de A à Z un pipeline de données temps réel (streaming) directement dans Snowflake, sans dépendre d’outils externes.
Vous maîtriserez le chargement et la transformation de données, la création de procédures stockées et de fonctions (SQL/Python), ainsi que l’orchestration d’un DAG natif.
Vous implémenterez également la gestion des accès (RBAC) et le déploiement via Snowflake CLI et GitHub.
Résultat : un pipeline end-to-end, robuste et prêt pour des cas réels en Data Engineering — exactement le type de compétence aujourd’hui recherché en entreprise.
Module 3 — Git & Collaboration
Cette formation Git & GitHub vous permet de maîtriser la gestion de versions et la collaboration comme en environnement professionnel.
Vous apprendrez à utiliser Git efficacement, configurer votre environnement, gérer des dépôts et manipuler les commandes essentielles (commit, push, branch, merge).
Vous irez plus loin avec les concepts avancés (rebase, stash, cherry-pick) et la résolution de conflits, indispensables en équipe.
Vous découvrirez également les workflows utilisés en entreprise et les bonnes pratiques de collaboration.
Résultat : vous serez capable de contribuer à des projets concrets, open source ou professionnels, et de structurer proprement votre code — un prérequis aujourd’hui pour être crédible en développement ou en data.
Module 4 — SQL avancé
Vous allez apprendre SQL à un niveau avancé pour analyser et transformer des données à grande échelle, comme en environnement professionnel.
Vous maîtriserez les jointures complexes, sous-requêtes, fonctions analytiques (window functions), CTE et techniques d’optimisation de requêtes.
Le programme couvre également les agrégations avancées, les logiques conditionnelles et les bonnes pratiques de modélisation.
Structurée autour de cas concrets, la formation vous mène à un projet data complet.
Résultat : vous devenez autonome sur des problématiques réelles de Data Engineering et d’analyse — des compétences aujourd’hui indispensables sur le marché.
Module 5 — DataViz avec Tableau
Formation Tableau conçue par un expert reconnu pour atteindre un niveau avancé en data visualisation.
Vous apprendrez à concevoir des analyses complexes et des dashboards performants, utilisés en contexte professionnel.
Vous maîtriserez la préparation de données, les calculs avancés (LOD, table calculations) et l’optimisation des performances. Le programme couvre la modélisation des sources, la gestion de volumes importants et la création de visualisations interactives à forte valeur métier.
À travers des cas concrets, vous développerez des dashboards dynamiques, robustes et maintenables.
Résultat : vous serez capable de produire des analyses fiables, impactantes et directement exploitables en entreprise.
Module 6 — dbt : le cœur du métier
Le cours dbt en français parmi les plus complets, validé par dbt.
Conçu pour poser des bases solides en analytics engineering et démarrer dans des conditions professionnelles, il vous guide pas à pas sur DBT Cloud et DBT Core, leurs cas d’usage et les bonnes pratiques d’implémentation.
Vous mettez en place un environnement complet avec Snowflake, configurez DBT et connectez votre premier projet à votre entrepôt de données.
Résultat : vous développez une compréhension claire et opérationnelle pour construire des pipelines de transformation fiables, scalables et maintenables — des compétences aujourd’hui clés en data.
Module 7 — Airflow
Formation Apache Airflow complète et orientée niveau avancé pour maîtriser l’orchestration de pipelines de données en environnement professionnel.
Vous apprendrez à concevoir des workflows robustes, gérer des dépendances complexes et orchestrer des pipelines ETL/ELT ainsi que des processus de machine learning.
Le programme couvre en profondeur les DAGs, opérateurs, stratégies de reprise sur erreur et les bonnes pratiques de structuration.
À travers un projet concret basé sur des données réelles avec DuckDB, vous construisez un pipeline maintenable de bout en bout.
Résultat : vous développez des compétences directement applicables pour déployer et gérer Airflow dans des environnements de production modernes, aujourd’hui largement utilisés en Data Engineering.
Module 8 — Docker
Vous apprendrez à construire et utiliser des images Docker, gérer des conteneurs, et surtout faire communiquer plusieurs services entre eux.
L’objectif est de comprendre comment structurer un environnement multi-services simple, propre et reproductible avec Docker Compose.
Le cours inclut la mise en place d’un projet concret avec une API FastAPI, une base Postgres et une application Streamlit.
À travers cette approche projet, vous développez un environnement full stack reproductible, que vous pouvez lancer en une commande et partager facilement.
Résultat : vous acquérez des bases solides et directement applicables pour travailler sur des projets d’analytics engineering dans un cadre professionnel.
Module 9 — Python avancé
Vous apprendrez à construire et utiliser des images Docker, gérer des conteneurs, et surtout faire communiquer plusieurs services entre eux.
L’objectif est de comprendre comment structurer un environnement multi-services simple, propre et reproductible avec Docker Compose.
Le cours inclut la mise en place d’un projet concret avec une API FastAPI, une base Postgres et une application Streamlit.
À travers cette approche projet, vous développez un environnement full stack reproductible, que vous pouvez lancer en une commande et partager facilement.
Résultat : vous acquérez des bases solides et directement applicables pour travailler sur des projets d’analytics engineering dans un cadre professionnel.
- À la fin, vous serez capable de :
- Concevoir un pipeline data de bout en bout
- Modéliser des données proprement avec dbt
- Orchestrer des workflows avec Airflow
- Conteneuriser vos projets avec Docker
- Versionner votre code avec Git
- Déployer sur Snowflake
- Produire des datasets fiables et exploitables par le business
- Documenter et tester vos pipelines selon les standards professionnels
Vous saurez concevoir, structurer et opérer comme un Analytics Engineer.
- Snowflake
- DBT
- Airflow
- Docker
- Git
- Python
- SQL avancé
- Cube
- Tableau & Metabase
Pas de théorie floue. Uniquement des compétences exploitables.
Deux formats
Format Autonomie
749€
45h20 d’e-learning
14h de classe live (2x/semaine)
Accès à 3 webinaires
Accompagnement 1/1 de 1h
Accès Discord
Feedback sur projets
Certifications
Accès à vie à la plateforme
Paiement en plusieurs fois
Financement OPCO
Accompagnement de 7 semaines
Bootcamp Hybride
1499€
45h20 d’e-learning
14h de classe live (2x/semaine)
Accès à 3 webinaires
Accompagnement 1/1 de 1h
Accès Discord
Feedback sur projets
Certifications
Accès à vie à la plateforme
Paiement en plusieurs fois
Financement OPCO possible
Accompagnement de 7 semaines
Spécification de la formation
45h de formation e-learning
14h de classes virtuelles (option)
8 projets professionnalisants
100% distance
Plus qu’une formation :
un accompagnement jusqu’à l’autonomie
Pourquoi ?
Maîtrisez les standards du marché, les outils professionnels et les bonnes pratiques qui font la différence dans l'industrie.
Pour qui ?
Pour data analysts en évolution, data engineers juniors, développeurs back, bootcampers et freelances data cherchant à se spécialiser.
Prérequis
Bases en Python, SQL et première expérience avec la data.
Ce n'est pas une initiation, c'est une montée en compétences.
Accès à vie
Accès illimité aux vidéos, notebooks, repos et mises à jour. Revenez sur le contenu quand vous voulez, à votre rythme.






Booste ta carrière dans la Data
Apprends la Modern Data Stack en construisant de vrais projets :
pipelines, modélisation, dashboards et stack analytics moderne.