Vous participerez à des projets passionnants couvrant le cycle de vie complet des données - de l'intégration des données brutes avec les systèmes primaires et tiers, en passant par la modélisation avancée des données, jusqu'à la visualisation des données de pointe et le développement de produits de données innovants.
Vous aurez l'opportunité d'apprendre à construire et à travailler avec des pipelines de traitement des données en lots et en temps réel. Vous travaillerez dans un environnement moderne de stockage de données en nuage aux côtés d'une équipe de collègues diversifiés, intenses et intéressants. Vous serez en liaison avec d'autres départements - tels que le produit & tech, les secteurs d'activité principaux, la confiance & la sécurité, la finance et d'autres - pour leur permettre de réussir.
Vos responsabilités
- Concevoir, mettre en œuvre et soutenir l'entreposage de données ;
- Intégrations de données brutes avec les systèmes primaires et tiers
- Modélisation de l'entrepôt de données pour les couches de données opérationnelles & d'application
- Développement dans le cluster Amazon Redshift
- Développement SQL dans le cadre du flux de travail de l'équipe agile
- Conception et mise en œuvre de ETL dans Matillion ETL
- Pipelines de données en temps réel et applications utilisant des services AWS sans serveur et gérés tels que Lambda, Kinesis, API Gateway, etc.
- Conception et mise en œuvre de produits de données permettant des fonctionnalités ou des solutions commerciales axées sur les données
- Construction de tableaux de bord de données et de visualisations avancées dans Sisense pour les équipes de données cloud (anciennement Periscope Data) avec un accent sur l'UX, la simplicité et l'utilisabilité
- Travailler avec d'autres départements sur les produits de données - c'est-à-dire le produit & la technologie, le marketing & la croissance, la finance, les activités principales, la publicité et d'autres
- Faire partie et contribuer à une culture d'équipe forte et à l'ambition d'être à la pointe des big data
- Évaluer et améliorer la qualité des données en mettant en œuvre des cas de test, des alertes et des garanties de qualité des données
- Vivre les valeurs de l'équipe : plus simple. Mieux. Plus rapide.
- Fort désir d'apprendre
Expérience minimale requise (obligatoire)
- 3 - 5 ans d'expérience dans le traitement des données, l'analyse et la résolution de problèmes avec de grandes quantités de données ;
- Bonnes compétences SQL sur une variété de technologies d'entreposage de données relationnelles, en particulier dans l'entreposage de données en nuage (par exemple, Amazon Redshift, Google BigQuery, Snowflake, Vertica, etc.)
- 3+ ans d'expérience avec un ou plusieurs langages de programmation, en particulier Python
- Capacité à communiquer des informations et des conclusions à un public non technique
- Maîtrise écrite et verbale de l'anglais
- Esprit d'entreprise et capacité de penser de manière créative ; hautement motivé et auto-motivé ; forte curiosité et désir d'apprentissage continu
- Diplôme universitaire technique de premier ordre, tel que l'informatique, l'ingénierie, les mathématiques, la physique.
Expérience supplémentaire (fort plus)
- Expérience de travail avec des données centrées sur le client à l'échelle du big data, de préférence dans un contexte en ligne / e-commerce
- Expérience avec les outils modernes d'ETL de big data (par exemple, Matillion)
- Expérience avec l'écosystème de données AWS (ou d'autres fournisseurs de cloud)
- Expérience dans le domaine des solutions d'intelligence d'affaires, de la construction et de l'échelle des entrepôts de données, et de la modélisation des données
- Marquage, suivi et reporting avec Google Analytics 360
- Connaissance des pipelines de données en temps réel modernes (par exemple, le framework sans serveur, lambda, kinesis, etc.)
- Expérience avec les plateformes modernes de visualisation de données telles que Periscope, Looker, Tableau, Google Data Studio, etc.
- Linux, script bash, Javascript, HTML, XML
- Conteneurs Docker et Kubernetes
#LI-TM1