Ingénieur Big Data (ARCHIVE)

  • Localisation: Lyon
  • Métier: Data
  • Type de contrat: mission
  • Salaire: TJM : 400/450
  • Type d'entreprise: Grand compte
  • Compétences: #Big Data

Description de poste

Mission au sein d’un grand groupe dans le domaine bancaire.

Le candidat doit avoir totalisé un minimum de 5 ans d’expérience professionnelles sur des sujets similaires,
pour que la candidature soit recevable. A défaut nous ne pourrons pas donner de suite positive.

Contexte du besoin :
Dans le cadre de son activité Décisionnel & Big Data, recherche un Développeur Big Data expérimenté (de 3 à 7 ans d’expérience) pour nous accompagner dans l’organisation et la mise en œuvre d’une solution Cloud au sein de son dispositif technique.

Objet de la prestation :
L’objectif de la prestation est de réaliser la migration de Teradata vers Cloudera au sein du SI Décisionnel.

Missions :
Rattaché au responsable Fabrication Décisionnel & Big Data, le profil aura pour principales missions :
• Concevoir techniquement les traitements dans le respect de l’architecture mise en place et des exigences du client ;
• Codifier les traitements des applications et rédiger la documentation technique dans le respect des normes de développement et des process établis  ;
• Prendre en charge les maintenances correctives (modification d’une application existante pour corriger des erreurs techniques ou fonctionnelles) ;
• Réaliser les tests unitaires, pour chaque composant : nouvelle fonctionnalité et non régression, dans le cas de la maintenance ;
• Réaliser les tests d’assemblage des composants décrivant une fonction applicative : nouvelle fonctionnalité et non régression, dans le cas de la maintenance ; premier niveau de vérification des performances et de l’exploitabilité

Environnement technique – technologique :

Outils de développement :
• SQL pour des usages multiples (collecte et transformation)
• Datastage PX (collecte et transformation)
• Cognos BI (restitutions)
• Power BI (en cours d’expérimentation)
• Python et le stack Cloudera (HDFS, Hive, Spark, Impala, HBase, …), pour des usages Big Data
• Les technologies spécifiques CLOUD potentiellement