Contrat: CDI
Ville: Casablanca

Missions

  • Contribuer à l’élaboration des propositions fonctionnelles de la solution applicative ou de son évolution en collaboration avec l’équipe étude
  • Contribuer au chantier de migration vers GCP
  • Contribuer à l’analyse d’impact sur le SI existant et ses évolutions
  • Réaliser une conception technique des traitements dans un but de performance et de simplicité
  • Participer à l’élaboration de solutions sur Hadoop en utilisant son expérience du développement
  • Développer des évolutions de la version en mode itératif (Agile)

Profil recherché

  • De formation supérieure en Informatique, vous disposez d’une expérience de 3 ans et plus dans le développement Big Data

Compétences recherchées

  • Maitrise du développement java et son environnement : Junit, Maven, Eclipse ou IntelliJ, Jenkins, GIT
  • Maitrise du développement SQL
  • Maitrise des technologies GCP : BigQuery, BigTable, Dataflow,…
  • Une connaissance des développements en environnement distribué avec des traitements parallélisés
  • Une maitrise de l’environnement Linux et du langage Shell
  • Une maitrise des outils Putty et WinSCP
  • Maitrise des technologies BigData est souhaitable : Hadoop, Spark, Pig, Hive, Cassandra, Hbase , HDFS
  • Une 1ière expérience en Scala et Python est souhaitable
  • Esprit d’analyse et de synthèse
  • Vous êtes fort de proposition et adaptable, autonome, organisé, rigoureux, vous avez la volonté de produire des services de qualité
  • Vous êtes un passionné du Big Data, vous voulez traiter des vrais cas métier avec de grosse volumétrie de données
  • Votre ambition est de devenir une référence dans le domaine du développement Big Data
  • Vous avez le sens du partage et vous aimez travailler en équipe, communiquant, investi
  • Vous partagez nos valeurs : audace, écoute, partage, efficacité et agilité

Apply for this position

Allowed Type(s): .pdf, .doc, .docx