Groupe EDF vacancy search engine

Data Engineer Cloud GCP (50%Teletravail) F/H


Détail de l'offre

Informations générales

Référence

2025-143698  

Date de début de diffusion

15/07/2025

Date de modification

16/07/2025

Périmètre de publication

Standard

Description du poste

Famille professionnelle / Métier

SYSTEMES D'INFORMATION, TELECOM ET NUMERIQUE - Pilote de production de services

Intitulé du poste

Data Engineer Cloud GCP (50%Teletravail) F/H

Collège

Cadre

Plage M3E

C (13 - 14 - 15)

Type de contrat

CDI

Description de la mission

Rejoignez nos équipes qui développent et maintiennent les applications du Groupe EDF !  Une direction dynamique, à l’écoute de ses équipes et avec des méthodes de travail innovantes.

Le Centre DATA & IA a pour vocation de faire émerger et d'industrialiser de nouvelles solutions numériques au service des métiers du Groupe. Vous rejoindrez le groupe Data Automatisation & Analyse, au service des métiers du Groupe EDF dans leur transformation numérique.

Dans le cadre de la mise en place des cas d’usages pour le Centre DATA &IA et pour appuyer la montée en puissance de l’automatisation et l’analyse des données, vous apporterez votre expertise technique sur les sujets de Data/IA et plus particulièrement vous accompagnerez les équipes sur des missions de mise en place de projets orientés Data et IA et contribuerez à la mise en place des plateformes data modernes pour le Groupe.

 

En tant que Data Engineer, vous aurez la charge de :

·       Analyser les besoins : animer les ateliers afin d’étudier et cadrer les besoins des équipes, définir les méthodologies de déploiement et plans de migration, contribuer aux dossiers d’architecture et spécifications techniques, bonne compréhension de l’écosystème Cloud et des pratiques DevOps

·       Concevoir et mettre en œuvre des architectures de données robustes et évolutives et notamment sur le cloud Google Cloud Platform (GCP) et contribuer à l’implémentation des briques data dans le respect du cadre d’architecture, des contraintes cybersécurité et de conformité réglementaire (RGPD) 

·       Développer des pipelines de données automatisés et fiables pour collecter, stocker, transformer et analyser de grands volumes de données, en lien avec les équipes de DevSecops

·       Collaborer avec les équipes métier et data science pour comprendre les besoins en données et y répondre de manière efficace

·       Contribuer à mettre en place des processus et des contrôles pour garantir la qualité des données

·       Participer à la maintenance, au RUN, au delivery, et à l'amélioration continue des systèmes de données existants

·       Etudier les évolutions vers des architectures containerisées pour la plateforme interne

·       Contribution à la documentation des livraisons et construction des supports d’accompagnement des utilisateurs

·       Accompagner les métiers du Groupe lors de leur accostage sur la plateforme Data 

Cette mission représente une opportunité idéale pour développer vos compétences et progresser au sein de la filière numérique (pilotage, expertise, gestion de projet, management) ou évoluer vers d’autres directions du Groupe. L’équipe fonctionne en mode agile, propose 50 % de télétravail, un management visuel et valorise la collaboration sur des sujets innovants.

 

Profil souhaité

Compétences techniques attendues :

  • Bac+5 (école d’ingénieur ou équivalent universitaire), vous êtes familier avec les problématiques RUN et sensible à la qualité du delivery.
  • Minimum 2 ans d’expérience sur un poste similaire
  • Connaissance d’au moins un Cloud Provider (GCP, AWS…).

  •  Maîtrise des langages de programmation Python et SQL, (optionnel Java, Scala), ainsi que des outils de gestion de données tels que BigQuery, Dataflow, AirFlow, Spark
    Connaissance des concepts de data warehousing, data lake et data mining

  • Expérience avec des outils d’automatisation d’infrastructure (Terraform, Ansible, Pulumi...).

  • Connaissance des outils de CI/CD (GitLab CI, Jenkins, GitHub Actions…).

  • Bonne compréhension des thématiques DevOps et FinOPS

  • Connaissance des méthodologies agiles (Scrum, Kaban, Safe)

  • Bonne connaissance de Docker et de Kubernetes serait un plus.

Soft skill attendues :

  • Capacité à conceptualiser et à formaliser un processus
  • Bonne culture Data et IA
  • Esprit de synthèse
  • Bonne aisance rédactionnelle et orale
  • Bon relationnel, pédagogie et goût pour le travail en équipe
  • Esprit d'analyse, sens de l'écoute
  • Autonomie et sens de la responsabilité
  • Motivation, implication et adaptation, curiosité et appétence pour la découverte de nouveaux domaines, adaptabilité
  • Expérience en gestion de projet notamment agile 

Fourchette de rémunération selon profil  : 45 KE à 65 KE 

Dans le groupe EDF accueillir des personnes en situation de handicap fait partie de notre ADN. Notre objectif est d’ouvrir nos portes à toutes les compétences, toutes les énergies et toutes les personnalités sans exclusion. Le poste proposé est donc ouvert à toutes et à tous.

Date souhaitée de début de mission

01/09/2025

Société

EDF

Localisation du poste

Localisation du poste

Europe, France, Ile-de-France, Hauts-de-Seine (92)

Ville

nanterre

Langue de l'offre

Français

Critères candidat

Niveau de formation

06 - BAC +4 / BAC +5

Spécialisation du diplôme

Informatique / Système d'informations

Expérience minimum souhaitée

5 ans

Compétences transverses

  • Capacité d'adaptation
  • Autonomie
  • Capacité d'analyse / Esprit de synthèse

Autres informations

Permis VL

Non

Permis PL

Non