XX
(Closed)Smarteo

Un Data Engineer Hadoop, Spark, Python, Scala, Devops, Stack Elastic, Kubernete, AWS sur Paris (IT) / Freelance

  • +3
  • +17
  • FR
    Paris, Île-de-France, France
Show interest
  • +3
  • +17
  • FR
    Paris, Île-de-France, France

About

Smarteo recherche pour l'un de ses clients, grand compte, Un Data Engineer Hadoop, Spark, Python, Scala, Devops, Stack Elastic, Kubernete, AWS sur Paris.

Nous recherchons un Data Engineer - Sénior avec un minimum de 7 ans d'expériences sur des projets similaires.

Projet :

Conception et Maintenance de l'applicative

Amélioration continue des produits / solutions de l'équipe

Construction nouveaux usages

Principaux livrables :

Participer au cadrage technique

Définition des solutions applicatives

Développement, Intégration et Recette technique

Traitement des incidents & assistance utilisateurs

Participer à la révision du code écrit par d'autres développeurs pour s'assurer de la qualité, de l'efficacité et des bonnes pratiques en matière de développement de pipelines de données.

Travailler étroitement avec les équipiers de la squad pour s'assurer que les solutions mises en ?uvre répondent bien aux besoins métiers et sont alignées avec les meilleures pratiques.

Participer au cadrage technique

Définition des solutions applicatives

Développement, Intégration et Recette technique

Traitement des incidents & assistance utilisateurs

Participer à la révision du code écrit par d'autres développeurs pour s'assurer de la qualité, de l'efficacité et des bonnes pratiques en matière de développement de pipelines de données.

Travailler étroitement avec les équipiers de la squad pour s'assurer que les solutions mises en ?uvre répondent bien aux besoins métiers et sont alignées avec les meilleures pratiques.

Si vous êtes disponible et intéressé merci de me faire parvenir votre TJM+CV à jour dès que possible.

Profil candidat:
Compétences requises :

Maitrise des écosystèmes de Big Data tels que les distributions HADOOP (Cloudera).

Spark, Python, Scala, Framework Hadoop , Bash et DEVOPS (GitLab, Jenkins, Ansible, Nexus, Sonar, ...)

Stack Elastic (ELASTICSEARCH, LOGSTASH, KIBANA ...)

Kubernete, pratiques MLOPS

AWS : Sagemaker (Studio, intégration, ... ), Terraform

Une bonne autonomie et capacité de prendre le lead sur la définition des solutions applicatifs et le développement des évolutions

bonne communication et accompagnement utilisateurs

Sens du travail en équipe

Nice-to-have skills

  • Hadoop
  • Spark
  • Python
  • Scala
  • DevOps
  • Elastic Stack
  • Kubernetes
  • AWS
  • Big Data
  • Bash
  • Gitlab
  • Jenkins
  • Ansible
  • Elasticsearch
  • Logstash
  • Kibana
  • Terraform
  • Paris, Île-de-France, France

Work experience

  • Data Engineer
  • Data Infrastructure
  • DevOps

Languages

  • French