Ingénieur Middleware ELK

  • Localisation: Vitrolles
  • Métier: Ingénieur
  • Type de contrat: CDI
  • Salaire: Selon Profil
  • Type d'entreprise: Grand compte
  • Compétences: #ELK

Description de poste

ref : 20-3 / 2020 EB _ InG Middleware ELK

CDI – Mission en régie chez le client.

Nous recherchons un Ingénieur Intégrateur Middleware ELK

Le Prestataire étant spécialisé dans le domaine de l’Architecture Technique, le Client souhaite faire appel au Prestataire pour une mission d’assistance dans le contexte suivant.

Contexte général :
La société a mis en place des solutions informatiques qui intègrent :
– Une architecture Omnicanal, déployée On Premise, en Cloud, ou Hybride, en haute disponibilité et à forte charge et qui fait appel à des principes tels que :
o Architecture distribuée et micro service,
o Authentification,
o Exposition interne / externe d’API,
o Haute Disponibilité, Redondance,
o Scalabilités (horizontale, verticale), Robustesse,
o Intégrité des Données,
o Cloisonnement, zoning
– Des solutions SI de plus en plus décomposées en services et composants intermédiaires, qui font appel à des solutions telles que :
o Bus d’échanges (Kafka),
o Des solutions de Messaging (ESB Software AG),
o Des solutions de Master Data Management,
o Des Protocoles Web Services REST,
o Des Formats d’échanges,

– Une centralisation des logs (infrastructure, systèmes, middleware, base de données, réseau, applicatifs), tel que ELK et ENK ;
– Un DataLake dans l’optique de collecter et centraliser les flux bruts des données de Logs en complément du Data , afin de permettre leur analyse pour des améliorations de fonctionnement, résolution d’incident ou de problème, optimisation des configurations ou autres évolutions applicatives ;
– Des systèmes reposants principalement sur :
o Système Linux, dont KVM Redhat, Windows dont VMware,
o Red Hat Entreprise Linux , CentOS,
o Serveurs Web (type Apache, nginx),
o Plateforme d’Ordonnancement (Crtl-M) et d’échanges (ETL Informatica),
o Systèmes de Gestion de Base de Données, type :
 PostgreSQL Entreprise DB,
 MongoDB,
 Oracle,
o Outils/framework de déploiement (Kubernetes, Docker, OpenStack, Salt),
o Systèmes de collecte et d’affichage de métriques & dashboards (Grafana, Graphite, jmxtrans, collectD) ;
– Ainsi que des technologies telles que :
o Framework de Développement (Spring, SpringBoot, Angular, React, Drupal CMS, Node.js),
o Langages de programmation (javascript, java, php, python) et de gestion de codes sources (Git, Jenkins, Bamboo).

Contexte général de la mission :
La société a mis en place une centralisation des logs (infrastructure, systèmes, midlwre, réseau, applicatifs). Devant l’afflux de ces données, il est décidé de mettre en œuvre un DataLake, afin de collecter, centraliser ces données brutes, en vue de permettre leur analyse pour des amélioration de fonctionnement, résolution d’incident ou de problème, optimisation des configurations ou autres évolutions applicatives.
La prestation nécessitera une grande compétence en abstraction, organisation, rationalisation pour garantir la capitalisation des actifs du projets.

Phases & Tâches
Le Prestataire s’engage à effectuer les Prestations définies ci-dessous :
– Assurer le développement et l’évolution des scripts de traitements de logs et de données ;
– Assurer la bonne ingestion des données collectées, leur stockage dans les solutions Hadoop ;
– Réaliser les analyses au sein de ces solutions.

Durant l’exécution des Prestations, le Prestataire communiquera les livrables définies ci-dessous :
 Remplissage d’un compte rendu d’activité hebdomadaire indiquant notamment l’état d’avancement des scripts sur lesquels le prestataire a travaillé ;
 Fourniture d’un PV de réalisation mensuel ;
 Fichiers source et scripts sauvegardés sur les répertoires git ou svn de la solution adéquate ;
 Documentations réalisées, dont la présentation globale de la solution.