Vos missions :
Au sein de l’équipe agile, vous serez en charge de :
Contribuer à la migration de tous les assets (flux, batch en python/Javascript, API)
Être en relation avec les équipes infrastructure ainsi qu’avec les autres équipes du train Safe
Analyser les anomalies et proposer les solutions, court / moyen terme
Développer sous Databricks (Python/PySpark, SQL, Spark, Airflow)
Implémenter et Maintenir les algorithmes (Batch MapReduce) et les APIs Rest : Javascript (le plus important), Python (ScikitLearn) ou PySpark
Participer à la modélisation et l’analyse de données
De formation Bac +5 (Master 2, DESS, DEA), formation ingénieure ou informatique, tu as une expérience d’au moins 3 ans (hors stage et alternance) en tant que Data Engineer/Big Data.
L’environnement technique
Environnement AWS : Glue (Spark/Python) et Service managé (S3, Lambda, ECS..)
Github, Jenkins, Terraform
Cassandra, PostgreSQL
Grafana, Splunk, InfluxDB
Méthodologie Agile/Scrum, framework Safe, Jira/Confluence
La connaissance de Java est un +
Notre engagement : un processus rapide et transparent !
1ᵉʳ contact téléphonique de 5 minutes pour faire connaissance.
1 entretien RH, de 45 minutes – en présentiel ou en visio – avec Clément, Corentin ou Lisa, pour vous présenter evoteo et comprendre votre parcours ainsi que votre projet professionnel
1 rencontre en présentiel d’1 h avec notre CEO – Théodore
1 échange de 30 minutes avec nos Leads Data (Elio, Guillaume, Arthur) afin de comprendre le quotidien chez evoteo
Ces entreprises recrutent aussi au poste de “Données/Business Intelligence”.