Lead Data Analytics Engineer H/F
Role details
Job location
Tech stack
Job description
Avec l'accélération des enjeux Data et Intelligence Artificielle, l'équipe Data & IA renforce aujourd'hui ses effectifs. !
Forte de 90 collaborateurs, l'équipe intervient auprès de grands comptes ainsi que d'ETI/PME, en s'appuyant sur quatre centres d'expertise : CDO Advisory, Data Platform & Architecture, Analytics & Insights, et IA & Data Science. Engagée sur des projets structurants et à fort impact, elle accompagne ses clients dans toutes les dimensions de leur transformation data et IA., Vos missions, en tant que Lead Data Analytics Engineer F/H sont :
Dans le cadre de votre mission, vous interviendrez auprès de multiples clients pour concevoir, implémenter et déployer des solutions data solides et évolutives.
Votre rôle :
-Apporter une expertise approfondie en stratégies et architectures de données.
-Contribuer à l'orientation technologique des projets en tenant compte des enjeux métier spécifiques à chaque client.
Vous serez susceptible d'intervenir sur :
-Audit et diagnostic des plateformes et architectures de données.
-Conception d'architectures technologiques et data pour les sujets analytics et IA.
-Pilotage de projets techniques en qualité de Tech Lead.
-Définition et mise en place des principes de data engineering, data modelling et DevOps.
Vos responsabilités :
-Analyse des architectures data existantes sur des environnements cloud et on-premise, puis identifier les axes d'amélioration.
-Proposer et implémenter des architectures conceptuelles et technologiques cibles (data warehouse, data lake, lakehouse) et recommander l'approche adaptée (centralisée, décentralisée, data mesh, hub & spoke) en adéquation avec les contraintes et besoins du client (performances, coûts, sécurité, confidentialité, conformité réglementaire).
-Définir les principes de conception et mettre en place des architectures data conformes aux cas d'usage et aux besoins du client.
-Accompagner la montée en compétence des équipes de Data Engineers/Analytics Engineers et veiller à la qualité des livrables.
-Superviser la mise en oeuvre des pipelines de données (code-based, ETL/ELT) ainsi que la configuration des outils de scheduling et d'orchestration, en veillant au respect des bonnes pratiques de développement (PR, CI/CD, templatisation, containerisation, gestion d'environnements).
-Suivre les évolutions technologiques (offres des cloud providers, frameworks, outils Big Data) et accompagner les clients dans leurs choix stratégiques.
Requirements
Diplôme : Bac +5 d'une école d'ingénieur ou formation technique (statistiques, mathématiques, informatique, Data/IA).
-Expérience : Minimum 5 ans dans la data (architecture, engineering, big data), dont plusieurs années en tant que Tech Lead. Idéalement, une expérience en cabinet de conseil ou environnement multi-clients souhaitée.
-Compétences techniques, * Maîtrise d'au moins un cloud provider orienté data : AWS, Azure, GCP (services managés, data warehousing, orchestrateurs).
-
Principes de data engineering : pipelines de données (code-based, ETL/ELT), bonnes pratiques de versioning et gestion des flux.
-
Outils de scheduling et d'orchestration : Apache Airflow, Prefect, Azure Data Factory.
-
Mise en place de pipelines CI/CD pour le déploiement automatisé des pipelines data.
-
Connaissance des normes RGPD, ISO, principes de chiffrement, masquage/anonymisation.
-
Participation à la mise en place de politiques de gestion des accès et de contrôle des coûts (FinOps).
-
Maîtrise des solutions On-premise (bases relationnelles, ETL propriétaires, clusters Big Data) est un plus.
-
Qualités personnelles :
-
Curiosité, autonomie, esprit d'initiative et bonne capacité de travail.
-
Excellentes capacités relationnelles et de présentation, goût pour le travail en équipe.
-
Maîtrise de l'anglais dans un environnement professionnel., Expérience : Minimum 5 ans dans la data (architecture, engineering, big data), dont plusieurs années en tant que Tech Lead. Idéalement, une expérience en cabinet de conseil ou environnement multi-clients souhaitée.
-Compétences techniques, * Maîtrise d'au moins un cloud provider orienté data : AWS, Azure, GCP (services managés, data warehousing, orchestrateurs).
-
Principes de data engineering : pipelines de données (code-based, ETL/ELT), bonnes pratiques de versioning et gestion des flux.
-
Outils de scheduling et d'orchestration : Apache Airflow, Prefect, Azure Data Factory.
-
Mise en place de pipelines CI/CD pour le déploiement automatisé des pipelines data.
-
Connaissance des normes RGPD, ISO, principes de chiffrement, masquage/anonymisation.
-
Participation à la mise en place de politiques de gestion des accès et de contrôle des coûts (FinOps).
-
Maîtrise des solutions On-premise (bases relationnelles, ETL propriétaires, clusters Big Data) est un plus.
-
Qualités personnelles :
-
Curiosité, autonomie, esprit d'initiative et bonne capacité de travail.
-
Excellentes capacités relationnelles et de présentation, goût pour le travail en équipe.
-
Maîtrise de l'anglais dans un environnement
Benefits & conditions
- Concepts et architectures de référence : data warehouse, data lake, lakehouse, Lambda/Kappa architecture.