Desired Skills and Experience

  • Bâtir une architecture efficace et robuste pour stocker et rendre accessible des terabytes de données, dans un environnement en hyper-croissance
  • Optimiser et créer des workflows de données vers notre Datalake et nos systèmes de diffusion de donnée (datawarehouse, APIs, bus d’événements…)
  • Identifier les besoins en données des différentes équipes, notamment lors des lancements de nouveaux projets et concevoir les systèmes pour y répondre, dans une logique de haute performance (ex : temps de réponse API <50ms)
  • Participer ou mener les nombreux projets à venir dans une startup en pleine évolution
  • AWS et ses composants pour notre infrastructure (S3 pour le DataLake, Redshift, Kinesis, DynamoDB…), et Spark pour le data-processing
  • Python pour le langage et quelques services en Scala
  • MariaDB pour nos bases de données web
  • Airflow pour orchestrer les workflows
  • Tu maîtrises Python comme principal langage de programmation
  • SQL et ses bases (PostGre, MySQL) font partie de ton quotidien
  • Tu as une bonne connaissance d’infras 100% Cloud (AWS, GoogleCloud…)
  • Passionné(e) par les écosystèmes de données et de la technologie en général, tu as une expérience dans les projets à très grande échelle
  • Tu as besoin de comprendre les enjeux de l’entreprise et d’avoir une approche pragmatique des problèmes, pour créer des outils fiables et utilisables rapidement,
  • Tu aimes communiquer et vulgariser des concepts complexes à des audiences plus ou moins techniques
  • Une expérience avec des techno Big Data type Spark / Presto, et des bases NoSQL
  • La maîtrise des ETL (Kettle ou Talend par exemple)
  • Kafka, et les sujets d’event sourcing et temps réel
  • Des compétences en Scala

Apply