Format hybride à distance

Bootcamp Analytics Engineer (FOAD)

Formation en 7 semaines combinant e-learning asynchrone et classes virtuelles 100% à distance (PC, tablette ou smartphone).
Le contenu reste accessible à la fin du bootcamp
Snowflake, dbt, Airflow, Docker, Git, SQL, DataViz (Tableau, Metabase), Cube.

45h

Durée de formation

Accès illimités

Aux formations, contenus, mises à jour

De Data Analyst à Analytics Engineer opérationnel en 7 semaines

Tu connais Python. Tu sais faire des dashboards. Tu manipules des données... Mais aujourd’hui, les entreprises recrutent des profils capables de

Construire des pipelines end-to-end propres

Industrialiser les transformations

Garantir la qualité des données

Documenter et versionner comme un senior

Tout ce qu’il faut savoir sur la formation

Module 1 — Cube

Formation Cube.js pour maîtriser la couche sémantique et servir des données fiables dans un contexte moderne.

Vous apprendrez à modéliser des métriques et dimensions, structurer une API analytique performante et connecter vos données à des outils de BI ou des applications custom.

Le programme couvre la gestion du caching, des performances et des accès, ainsi que les bonnes pratiques de modélisation orientée business.

À travers des cas concrets, vous construisez une couche data cohérente, scalable et directement exploitable.

Résultat : vous rendez les données accessibles, fiables et prêtes à être utilisées à grande échelle, y compris dans un contexte agentic.

Module 2 — Snowflake

Vous allez concevoir de A à Z un pipeline de données temps réel (streaming) directement dans Snowflake, sans dépendre d’outils externes.

Vous maîtriserez le chargement et la transformation de données, la création de procédures stockées et de fonctions (SQL/Python), ainsi que l’orchestration d’un DAG natif.
Vous implémenterez également la gestion des accès (RBAC) et le déploiement via Snowflake CLI et GitHub.

Résultat : un pipeline end-to-end, robuste et prêt pour des cas réels en Data Engineering — exactement le type de compétence aujourd’hui recherché en entreprise.

Module 3 — Git & Collaboration

Cette formation Git & GitHub vous permet de maîtriser la gestion de versions et la collaboration comme en environnement professionnel.

Vous apprendrez à utiliser Git efficacement, configurer votre environnement, gérer des dépôts et manipuler les commandes essentielles (commit, push, branch, merge).
Vous irez plus loin avec les concepts avancés (rebase, stash, cherry-pick) et la résolution de conflits, indispensables en équipe.
Vous découvrirez également les workflows utilisés en entreprise et les bonnes pratiques de collaboration.

Résultat : vous serez capable de contribuer à des projets concrets, open source ou professionnels, et de structurer proprement votre code — un prérequis aujourd’hui pour être crédible en développement ou en data.

Module 4 — SQL avancé

Vous allez apprendre SQL à un niveau avancé pour analyser et transformer des données à grande échelle, comme en environnement professionnel.

Vous maîtriserez les jointures complexes, sous-requêtes, fonctions analytiques (window functions), CTE et techniques d’optimisation de requêtes.
Le programme couvre également les agrégations avancées, les logiques conditionnelles et les bonnes pratiques de modélisation.
Structurée autour de cas concrets, la formation vous mène à un projet data complet.

Résultat : vous devenez autonome sur des problématiques réelles de Data Engineering et d’analyse — des compétences aujourd’hui indispensables sur le marché.

Module 5 — DataViz avec Tableau

Formation Tableau conçue par un expert reconnu pour atteindre un niveau avancé en data visualisation.

Vous apprendrez à concevoir des analyses complexes et des dashboards performants, utilisés en contexte professionnel.
Vous maîtriserez la préparation de données, les calculs avancés (LOD, table calculations) et l’optimisation des performances. Le programme couvre la modélisation des sources, la gestion de volumes importants et la création de visualisations interactives à forte valeur métier.

À travers des cas concrets, vous développerez des dashboards dynamiques, robustes et maintenables.

Résultat : vous serez capable de produire des analyses fiables, impactantes et directement exploitables en entreprise.

Module 6 — dbt : le cœur du métier

Le cours dbt en français parmi les plus complets, validé par dbt.

Conçu pour poser des bases solides en analytics engineering et démarrer dans des conditions professionnelles, il vous guide pas à pas sur DBT Cloud et DBT Core, leurs cas d’usage et les bonnes pratiques d’implémentation.

Vous mettez en place un environnement complet avec Snowflake, configurez DBT et connectez votre premier projet à votre entrepôt de données.

Résultat : vous développez une compréhension claire et opérationnelle pour construire des pipelines de transformation fiables, scalables et maintenables — des compétences aujourd’hui clés en data.

Module 7 — Airflow

Formation Apache Airflow complète et orientée niveau avancé pour maîtriser l’orchestration de pipelines de données en environnement professionnel.

Vous apprendrez à concevoir des workflows robustes, gérer des dépendances complexes et orchestrer des pipelines ETL/ELT ainsi que des processus de machine learning.
Le programme couvre en profondeur les DAGs, opérateurs, stratégies de reprise sur erreur et les bonnes pratiques de structuration.

À travers un projet concret basé sur des données réelles avec DuckDB, vous construisez un pipeline maintenable de bout en bout.

Résultat : vous développez des compétences directement applicables pour déployer et gérer Airflow dans des environnements de production modernes, aujourd’hui largement utilisés en Data Engineering.

Module 8 — Docker

Vous apprendrez à construire et utiliser des images Docker, gérer des conteneurs, et surtout faire communiquer plusieurs services entre eux.
L’objectif est de comprendre comment structurer un environnement multi-services simple, propre et reproductible avec Docker Compose.

Le cours inclut la mise en place d’un projet concret avec une API FastAPI, une base Postgres et une application Streamlit.
À travers cette approche projet, vous développez un environnement full stack reproductible, que vous pouvez lancer en une commande et partager facilement.

Résultat : vous acquérez des bases solides et directement applicables pour travailler sur des projets d’analytics engineering dans un cadre professionnel.

Module 9 — Python avancé

Vous apprendrez à construire et utiliser des images Docker, gérer des conteneurs, et surtout faire communiquer plusieurs services entre eux.
L’objectif est de comprendre comment structurer un environnement multi-services simple, propre et reproductible avec Docker Compose.

Le cours inclut la mise en place d’un projet concret avec une API FastAPI, une base Postgres et une application Streamlit.
À travers cette approche projet, vous développez un environnement full stack reproductible, que vous pouvez lancer en une commande et partager facilement.

Résultat : vous acquérez des bases solides et directement applicables pour travailler sur des projets d’analytics engineering dans un cadre professionnel.

  • À la fin, vous serez capable de :
    • Concevoir un pipeline data de bout en bout
    • Modéliser des données proprement avec dbt
    • Orchestrer des workflows avec Airflow
    • Conteneuriser vos projets avec Docker
    • Versionner votre code avec Git
    • Déployer sur Snowflake
    • Produire des datasets fiables et exploitables par le business
    • Documenter et tester vos pipelines selon les standards professionnels
    Vous ne saurez pas simplement “utiliser des outils”.
    Vous saurez concevoir, structurer et opérer comme un Analytics Engineer.
  • Snowflake
  • DBT
  • Airflow
  • Docker
  • Git
  • Python
  • SQL avancé
  • Cube
  • Tableau & Metabase

Pas de théorie floue. Uniquement des compétences exploitables.

Deux formats

Format Autonomie

749€

45h20 d’e-learning

14h de classe live (2x/semaine)

Accès à 3 webinaires

Accompagnement 1/1 de 1h

Accès Discord

Feedback sur projets

Certifications

Accès à vie à la plateforme

Paiement en plusieurs fois

Financement OPCO

Accompagnement de 7 semaines

Bootcamp Hybride

1499€

45h20 d’e-learning

14h de classe live (2x/semaine)

Accès à 3 webinaires

Accompagnement 1/1 de 1h

Accès Discord

Feedback sur projets

Certifications

Accès à vie à la plateforme

Paiement en plusieurs fois

Financement OPCO possible

Accompagnement de 7 semaines

Spécification de la formation

45h de formation e-learning

14h de classes virtuelles (option)

8 projets professionnalisants

100% distance

Plus qu’une formation :

un accompagnement jusqu’à l’autonomie

Pourquoi ?

Maîtrisez les standards du marché, les outils professionnels et les bonnes pratiques qui font la différence dans l'industrie.

Pour qui ?

Pour data analysts en évolution, data engineers juniors, développeurs back, bootcampers et freelances data cherchant à se spécialiser.

Prérequis

Bases en Python, SQL et première expérience avec la data.
Ce n'est pas une initiation, c'est une montée en compétences.

Accès à vie

Accès illimité aux vidéos, notebooks, repos et mises à jour. Revenez sur le contenu quand vous voulez, à votre rythme.

Booste ta carrière dans la Data

Apprends la Modern Data Stack en construisant de vrais projets :
pipelines, modélisation, dashboards et stack analytics moderne.