Contrat: CDI
Ville: Casablanca
Missions
- Contribuer à l’élaboration des propositions fonctionnelles de la solution applicative ou de son évolution en collaboration avec l’équipe étude
- Contribuer au chantier de migration vers GCP
- Contribuer à l’analyse d’impact sur le SI existant et ses évolutions
- Réaliser une conception technique des traitements dans un but de performance et de simplicité
- Participer à l’élaboration de solutions sur Hadoop en utilisant son expérience du développement
- Développer des évolutions de la version en mode itératif (Agile)
Profil recherché
- De formation supérieure en Informatique, vous disposez d’une expérience de 3 ans et plus dans le développement Big Data
Compétences recherchées
- Maitrise du développement java et son environnement : Junit, Maven, Eclipse ou IntelliJ, Jenkins, GIT
- Maitrise du développement SQL
- Maitrise des technologies GCP : BigQuery, BigTable, Dataflow,…
- Une connaissance des développements en environnement distribué avec des traitements parallélisés
- Une maitrise de l’environnement Linux et du langage Shell
- Une maitrise des outils Putty et WinSCP
- Maitrise des technologies BigData est souhaitable : Hadoop, Spark, Pig, Hive, Cassandra, Hbase , HDFS
- Une 1ière expérience en Scala et Python est souhaitable
- Esprit d’analyse et de synthèse
- Vous êtes fort de proposition et adaptable, autonome, organisé, rigoureux, vous avez la volonté de produire des services de qualité
- Vous êtes un passionné du Big Data, vous voulez traiter des vrais cas métier avec de grosse volumétrie de données
- Votre ambition est de devenir une référence dans le domaine du développement Big Data
- Vous avez le sens du partage et vous aimez travailler en équipe, communiquant, investi
- Vous partagez nos valeurs : audace, écoute, partage, efficacité et agilité
