Desired Skills and Experience
- Bâtir une architecture efficace et robuste pour stocker et rendre accessible des terabytes de données, dans un environnement en hyper-croissance
- Optimiser et créer des workflows de données vers notre Datalake et nos systèmes de diffusion de donnée (datawarehouse, APIs, bus d’événements…)
- Identifier les besoins en données des différentes équipes, notamment lors des lancements de nouveaux projets et concevoir les systèmes pour y répondre, dans une logique de haute performance (ex : temps de réponse API <50ms)
- Participer ou mener les nombreux projets à venir dans une startup en pleine évolution
- AWS et ses composants pour notre infrastructure (S3 pour le DataLake, Redshift, Kinesis, DynamoDB…), et Spark pour le data-processing
- Python pour le langage et quelques services en Scala
- MariaDB pour nos bases de données web
- Airflow pour orchestrer les workflows
- Tu maîtrises Python comme principal langage de programmation
- SQL et ses bases (PostGre, MySQL) font partie de ton quotidien
- Tu as une bonne connaissance d’infras 100% Cloud (AWS, GoogleCloud…)
- Passionné(e) par les écosystèmes de données et de la technologie en général, tu as une expérience dans les projets à très grande échelle
- Tu as besoin de comprendre les enjeux de l’entreprise et d’avoir une approche pragmatique des problèmes, pour créer des outils fiables et utilisables rapidement,
- Tu aimes communiquer et vulgariser des concepts complexes à des audiences plus ou moins techniques
- Une expérience avec des techno Big Data type Spark / Presto, et des bases NoSQL
- La maîtrise des ETL (Kettle ou Talend par exemple)
- Kafka, et les sujets d’event sourcing et temps réel
- Des compétences en Scala
Apply