Data Engineer pour concevoir

Groupe Viveris
2 days ago

Role details

Contract type
Permanent contract
Employment type
Full-time (> 32 hours)
Working hours
Regular working hours
Languages
French, English
Experience level
Junior

Job location

Remote

Tech stack

Artificial Intelligence
Amazon Web Services (AWS)
Amazon Web Services (AWS)
Azure
Google BigQuery
ETL
Data Warehousing
DevOps
Hadoop
Python
SQL Databases
Data Streaming
Google Cloud Platform
Snowflake
Spark
Data Lake
PySpark
Databricks

Job description

Dans le cadre du développement de nos activités data et de la montée en puissance de nos plateformes analytiques, nous recherchons un Data Engineer pour concevoir, construire et optimiser les pipelines de données alimentant nos applications métiers, nos plateformes analytiques et nos modèles d'intelligence artificielle. Vous rejoindrez une équipe Data pluridisciplinaire (Data Engineers, Data Scientists, Data Analysts, Architectes) et interviendrez sur toute la chaîne de traitement de la donnée : ingestion, transformation, structuration, optimisation, industrialisation et monitoring., * Concevoir, développer et maintenir des pipelines de données robustes (batch & streaming)

  • Industrialiser la collecte, la transformation et la mise à disposition des données (ETL/ELT)
  • Assurer la qualité, la fiabilité et la disponibilité des datasets critiques
  • Participer à la modélisation et à la structuration des données (Data Lake, Data Warehouse)
  • Collaborer avec Data Scientists & Analysts pour fournir des données fiables et exploitables
  • Contribuer aux choix techniques et à l'évolution de l'architecture data
  • Documenter les pipelines, les schémas et les bonnes pratiques d'exploitation

Requirements

Diplômé(e) d'une école d'ingénieur ou d'un Master (Bac+5) en informatique, mathématiques, data engineering ou domaine équivalent. Vous justifiez d'une première expérience réussie en Data Engineering, idéalement dans un environnement cloud ou distribué. Vous êtes reconnu(e) pour :

  • votre sens du détail et votre rigueur technique
  • votre capacité d'analyse et de résolution de problèmes
  • votre autonomie, votre organisation et votre capacité à travailler en équipe
  • votre intérêt pour les architectures data modernes et les bonnes pratiques DevOps

La maîtrise de l'anglais professionnel est un plus selon les projets.

Compétences techniques:

  • Python / SQL
  • Spark / PySpark (ou équivalent)
  • ETL/ELT et traitements batch & streaming
  • AWS, Azure ou GCP
  • Data Lake / Data Warehouse (S3, ADLS, BigQuery, Snowflake...)
  • Architectures distribuées : Spark, Databricks, Hadoop
  • Tests automatiques, observabilité des pipelines
  • Catalogage & gouvernance (Data Catalog, Data Quality tools), En retour, nous vous offrons un cadre de travail de qualité, des espaces de création et une formation continue solide.

Vous êtes passionné, technophile, curieux et créatif ?

Benefits & conditions

  • Rémunération attractive et évolutive
  • Assurance santé DKV
  • Assurance groupe
  • Tickets restaurant
  • Voiture de fonction ou plan mobilité (sous conditions)
  • Primes d'intéressement, de participation et de cooptation
  • Jusqu'à 2 jours de télétravail par semaine
  • Formation continue via LinkedIn Learning

Apply for this position