2-23-35
Mission au sein d’un grand groupe dans le domaine du transport
Le candidat doit avoir totalisé un minimum de 6 ans d’expérience professionnelles sur des sujets similaires,
pour que la candidature soit recevable. A défaut nous ne pourrons pas donner de suite positive.
Mission et Responsabilités :
En collaboration avec l’architecte data, les experts data et le gestionnaire/propriétaire produit, vous serez
amené à participer aux opérations et à l’implémentation de la roadmap technique de la plateforme
d’orchestration basé sur le produit Airflow. Ainsi vous assurerez le développement et le support expert
des fonctionnalités de la plateforme en elle-même mais aussi de l’outillage DevOps autour du
produit dont en priorité, l’observabilité, la gestion de la performance et l’amélioration continue du service
Orchestration.
Activités :
– Audit et veille technologique
– Participer aux initiatives d’audit des performances IT de la plateforme.
– Être force de proposition vis-à-vis des nouvelles fonctionnalités produit à mettre
en place et des axes d’améliorations en accord avec le propriétaire produit.
– Participer aux ateliers de recueil de besoins d’utilisation de la plateforme avec
l’ensemble des parties prenantes de l’écosystème Data : développement, métier,
architecture, opérations IT.
– Participer au cycle de développement du produit
– Assurer l’implémentation/développement de l’outillage et des fonctionnalités de
la plateforme nécessaires avec accord de l’Architecte Data et les experts Data du
groupe.
– Contribuer au développement des graphes orientés acycliques (DAG) nécessaires
à la bonne opérabilité des plateformes datalake et datamart (AWS et Snowflake)
– Assurer le rôle de support technique auprès des end-users lors de leur usage de
la plateforme.
iv. Assurer les livraisons et déploiement du code.
– Assurer le mode run de la plateforme
– Support niveau 2 expertise de la production et participation aux situations de
crises.
– Contribution à la Knowledge Base du produit.
– Reporter au gestionnaire de la plateforme Airflow, les performances IT, l’état de
santé temps réel et principaux risques opérationnels de la plateforme.
– Contribuer à la communauté Data Orchestration
– Assurer le relais (Key User) auprès des équipes utilisatrices de la plateforme : BI,
projets metiers, Data Science, DataLake, etc …
– Participer aux points réguliers avec les utilisateurs afin d’échanger autour des
bonnes pratiques d’usage et de développement.
– Passage de connaissance à l’équipe de support off-shore.
– Produire la documentation nécessaire à ce passage de connaissance : tuto,
document d’exploitation, etc…
– Assurer et animer les sessions de transfert de connaissances au travers de démos
produit
– Accompagner les premiers développements de l’équipe de support
– Aider l’équipe de support lors de la résolution d’incidents/problèmes
Compétences Requises & Environnement technologique:
– Cloud/Data Engineer AWS
– Orchestration des processus : Airflow
– Principes ETL/ELT : dbt
– Méthodologie Agile Scrum/Kanban
– Connaissance de l’écosystème de la gestion de données (profil Data Engineer)
– Notions DEVOPS
– Notions d’observabilité des Systèmes d’Information
– Soft skills :
– Force de proposition
– Autonome
– Dynamisme
– Fédérateur / Communiquant (serait un plus)
– Connaissance des outils suivants :
– Airflow (obligatoire)
– AWS
– Snowflake
– dbt
– JIRA/Confluence
– Jenkins
– Gitlab
– Terraform
– Kubernetes/Containers
– Elasticsearch/Kibana (serait un plus)
Livrables Attendus :
– Codage et mise en production les DAG dans le produit
– Rapports de test unitaires des DAG implémentés
– Contribuer aux documents de propositions d’évolutions de la plateforme.
– Planning de mise en œuvre des livraisons / roadmap via JIRA
– Documentation des bonnes pratiques de développement dans Confluence
– Mises à jour des tickets d’incident et de demande dans JIRA
Base de connaissance support (dans ServiceNow et Confluence)
– Supports de comités et compte-rendu de réunions.
Suivez nous