Ingénieur de Données

  • Full Time
Job expired!

Vous participerez à des projets passionnants couvrant le cycle de vie complet des données, de l'intégration des données brutes avec les systèmes primaires et tiers, à la modélisation avancée des données, jusqu'à la visualisation des données de pointe et le développement de produits de données innovants.

Vous aurez l'opportunité d'apprendre à construire et à travailler avec des pipelines de traitement de données en lots et en temps réel. Vous travaillerez dans un environnement d'entrepôt de données basé sur le cloud moderne aux côtés d'une équipe de collègues divers, intenses et intéressants. Vous serez en lien avec d'autres départements - tels que les produits & tech, les activités commerciales principales, la confiance & la sécurité, les finances, et autres - pour leur permettre de réussir.

Vos responsabilités

  • Conception, mise en œuvre et support de l'entrepôt de données;
  • Intégrations de données brutes avec les systèmes primaires et tiers
  • Modélisation de l'entrepôt de données pour les couches de données opérationnelles & d'application
  • Développement dans le cluster Amazon Redshift
  • Développement SQL dans le cadre du workflow de l'équipe agile
  • ETL conception et mise en œuvre dans Matillion ETL
  • Pipelines et applications de données en temps réel en utilisant des services AWS gérés et sans serveur tels que Lambda, Kinesis, API Gateway, etc.
  • Conception et mise en œuvre de produits de données permettant des fonctionnalités ou des solutions commerciales basées sur les données
  • Construction de tableaux de bord de données et de visualisations avancées dans Sisense pour les équipes de cloud de données (anciennement Periscope Data) avec un accent sur l'UX, la simplicité et l'utilisabilité
  • Travailler avec d'autres départements sur les produits de données - c'est-à-dire les produits & technologie, marketing & croissance, finance, activité principale, publicité et autres
  • Faire partie et contribuer à une culture d'équipe forte et à l'ambition d'être à la pointe des big data
  • Évaluer et améliorer la qualité des données en mettant en œuvre des études de cas, des alertes et des garanties de qualité des données
  • Vivre les valeurs de l'équipe : Plus simple. Mieux. Plus vite.
  • Forte envie d'apprendre

Expérience minimum requise (indispensable)

  • 1 à 2 ans d'expérience en traitement de données, analyse et résolution de problèmes avec de grandes quantités de données;
  • Bonnes compétences SQL sur diverses technologies d'entrepôt de données relationnelles, notamment en matière d'entreposage de données dans le cloud (par exemple, Amazon Redshift, Google BigQuery, Snowflake, Vertica, etc.)
  • 1+ années d'expérience avec un ou plusieurs langages de programmation, en particulier Python
  • Capacité à communiquer des insights et des résultats à un public non technique
  • Maîtrise écrite et verbale de l'anglais
  • Esprit entrepreneurial et capacité à penser de manière créative ; hautement motivé et autonome ; forte curiosité et désir d'apprentissage continu
  • Diplôme technique de haut niveau universitaire tel que l'informatique, l'ingénierie, les mathématiques, la physique.

Expérience supplémentaire (fortement appréciée)

  • Expérience de travail avec des données centrées sur le client à grande échelle de données, de préférence dans un contexte en ligne / e-commerce
  • Expérience avec des outils modernes d'ETL de big data (par exemple, Matillion)
  • Expérience avec l'écosystème de données AWS (ou d'autres fournisseurs de cloud)
  • Expérience en matière de solutions d'intelligence d'affaires, de construction et de mise à l'échelle d'entrepôts de données et de modélisation de données
  • Balises, suivi et reporting avec Google Analytics 360
  • Connaissance des pipelines de données en temps réel modernes (par exemple, cadre sans serveur, lambda, kinesis, etc.)
  • Expérience avec les plateformes modernes de visualisation de données telles que Periscope, Looker, Tableau, Google Data Studio, etc.
  • Linux, bash scripting, Javascript, HTML, XML
  • Conteneurs Docker et Kubernete


#LI-TM1