Projet : Développeur Hadoop et Java Confirmé
Détails du projet
Missions principales :
- Développement et optimisation :
- Concevoir, développer et optimiser des applications distribuées à l’aide de l’écosystème Hadoop (HDFS, MapReduce, Hive, Pig, etc.) et Java.
- Participer à l’intégration des données et au développement des pipelines ETL.
- Assurer la qualité du code par la mise en place de tests unitaires et d’intégration.
- Collaboration et conseil :
- Collaborer étroitement avec les équipes de data scientists et d’analystes pour la réalisation des projets.
- Conseiller les équipes sur les bonnes pratiques en matière de développement Java et Hadoop.
- Optimisation des performances :
- Identifier et résoudre les problèmes de performance.
- Assurer le bon fonctionnement et la maintenance des applications en production.
- Veille technologique :
- Restez informé des dernières évolutions dans le monde Java et Hadoop.
- Proposer et implémenter de nouvelles solutions pour améliorer l’efficacité de l’équipe.
Compétences requises :
- Expérience confirmée (3 ans minimum) en développement Java/Hadoop.
- Expertise en développement sur l’écosystème Hadoop (HDFS, MapReduce, Hive, Pig, etc.).
- Connaissance des bases de données NoSQL (HBase, Cassandra, MongoDB, etc.).
- Maîtrise des outils de versioning, tels que Git.
- Expérience dans le développement d’applications distribuées et l’optimisation de la performance.
- Une connaissance de l’architecture Big Data et des principaux challenges associés serait un plus.
- Bonne capacité à travailler en équipe et à communiquer.
Profil recherché :
- Diplôme d’ingénieur ou équivalent dans le domaine de l’informatique ou des technologies de l’information.
- Esprit d’analyse et de synthèse.
- Curiosité, rigueur et autonomie.
- Excellente communication écrite et orale en Francais, L’anglais est un plus.