Rejoignez Wrike : La Plateforme de Gestion de Travail Leader
Wrike se distingue comme la plateforme ultime de gestion de travail conçue pour les équipes et les organisations qui visent à collaborer, créer et exceller au quotidien. Avec Wrike, vous pouvez centraliser tous les processus de travail pour éliminer la complexité, augmenter la productivité et permettre à votre équipe de se concentrer sur ses tâches les plus vitales.
Nous envisageons un monde où chacun est libre de se concentrer sur son travail le plus significatif, ensemble.
Chez Wrike, nous combinons des expériences de travail stimulantes et agréables. En tant qu'entreprise en pleine croissance rapide, nous offrons de nombreuses opportunités de développement professionnel. Notre équipe talentueuse et énergique, caractérisée par son intelligence, sa passion, sa convivialité et son professionnalisme, fait de Wrike un lieu de travail agréable. Si vous possédez ces qualités, nous sommes impatients de vous accueillir à bord.
www.wrike.com
Intitulé : Ingénieur Data Expérimenté - GCP/AWS, Python, SQL
Lieu : Télétravail/Hybride
Responsabilités du Poste
- Posséder des actifs de données et des pipelines fournissant des insights exploitables sur les clients, les produits, GTM et les fonctions commerciales clés.
- Concevoir, développer et maintenir des pipelines de données évolutifs et des transformations provenant de divers systèmes d'ingénierie et d'affaires (par exemple, Salesforce/CPQ, NetSuite, Marketo).
- Collaborer avec les analystes pour améliorer les modèles de données alimentant les outils d'intelligence d'affaires, augmentant l'accessibilité des données et l'adoption des outils BI.
- Déployer des modèles ML avec les équipes de science des données, en respectant les meilleures pratiques du cycle de vie ML.
- Mettre en œuvre des processus et des systèmes de gestion de la qualité des données, garantissant l'exactitude des données de production et la maintenance des SLA.
Exigences d'Expérience
- Expérience dans la construction et la maintenance de pipelines de données dans des environnements riches en données (Ingénierie des Données, Back-end, Science des Données).
- Grande maîtrise de Python.
- Connaissance avancée de SQL et des bases de données relationnelles.
- 7+ ans d'expérience avec des solutions d'entreposage de données (BigQuery, Redshift, Snowflake, Vertica, etc.).
- 7+ ans d'expérience avec l'orchestration de pipelines de données (Airflow, Dagster, Prefect, etc.).
- Maîtrise de l'utilisation de Git, CI/CD et des technologies de containerisation.
- Expérience avec Google Cloud Platform, AWS ou Azure.
- Connaissance en architecture de bases de données.
Compétences Recherchées
- Expérience avec des intégrations de fournisseurs B2B significatives (Salesforce/CPQ, NetSuite, Marketo, etc.).
- Bonne compréhension de la Modélisation des Données (Kimball, Inmon, SCDs, Data Vault, Anchor).
- Maîtrise des bibliothèques de données Python (Pandas, SciPy, NumPy, Sci-Kit Learn, TF, PyTorch).
- Expérience avec les outils de qualité des données, de surveillance et d'alerte.
- Expérience avec la gouvernance des données d'entreprise, la gestion des données maîtresses, la confidentialité et la sécurité des données (GDPR, CCPA).
- Familiarité avec les technologies de streaming de données et de CDC (Google Pub/Sub, Google DataFlow, Apache Kafka, Kafka Streams, Apache Flink, Spark Streaming, etc.).
- Antécédents dans la construction de solutions analytiques dans un environnement SaaS B2B.
- Expérience de collaboration avec les équipes go-to-market, vente,