Data Engineer pour concevoir
Role details
Job location
Tech stack
Job description
Dans le cadre du développement de nos activités data et de la montée en puissance de nos plateformes analytiques, nous recherchons un Data Engineer pour concevoir, construire et optimiser les pipelines de données alimentant nos applications métiers, nos plateformes analytiques et nos modèles d'intelligence artificielle. Vous rejoindrez une équipe Data pluridisciplinaire (Data Engineers, Data Scientists, Data Analysts, Architectes) et interviendrez sur toute la chaîne de traitement de la donnée : ingestion, transformation, structuration, optimisation, industrialisation et monitoring., * Concevoir, développer et maintenir des pipelines de données robustes (batch & streaming)
- Industrialiser la collecte, la transformation et la mise à disposition des données (ETL/ELT)
- Assurer la qualité, la fiabilité et la disponibilité des datasets critiques
- Participer à la modélisation et à la structuration des données (Data Lake, Data Warehouse)
- Collaborer avec Data Scientists & Analysts pour fournir des données fiables et exploitables
- Contribuer aux choix techniques et à l'évolution de l'architecture data
- Documenter les pipelines, les schémas et les bonnes pratiques d'exploitation
Requirements
Diplômé(e) d'une école d'ingénieur ou d'un Master (Bac+5) en informatique, mathématiques, data engineering ou domaine équivalent. Vous justifiez d'une première expérience réussie en Data Engineering, idéalement dans un environnement cloud ou distribué. Vous êtes reconnu(e) pour :
- votre sens du détail et votre rigueur technique
- votre capacité d'analyse et de résolution de problèmes
- votre autonomie, votre organisation et votre capacité à travailler en équipe
- votre intérêt pour les architectures data modernes et les bonnes pratiques DevOps
La maîtrise de l'anglais professionnel est un plus selon les projets.
Compétences techniques:
- Python / SQL
- Spark / PySpark (ou équivalent)
- ETL/ELT et traitements batch & streaming
- AWS, Azure ou GCP
- Data Lake / Data Warehouse (S3, ADLS, BigQuery, Snowflake...)
- Architectures distribuées : Spark, Databricks, Hadoop
- Tests automatiques, observabilité des pipelines
- Catalogage & gouvernance (Data Catalog, Data Quality tools), En retour, nous vous offrons un cadre de travail de qualité, des espaces de création et une formation continue solide.
Vous êtes passionné, technophile, curieux et créatif ?
Benefits & conditions
- Rémunération attractive et évolutive
- Assurance santé DKV
- Assurance groupe
- Tickets restaurant
- Voiture de fonction ou plan mobilité (sous conditions)
- Primes d'intéressement, de participation et de cooptation
- Jusqu'à 2 jours de télétravail par semaine
- Formation continue via LinkedIn Learning