Êtes-vous prêt à faire partie d'une plateforme de shopping révolutionnaire qui transforme la manière dont les consommateurs économisent de l'argent ? Fetch recherche des personnes passionnées pour rejoindre notre équipe dynamique et nous aider à concrétiser notre vision. Découvrez pourquoi des millions d'utilisateurs nous classent parmi les 10 meilleurs dans la catégorie Shopping sur l'App Store et pourquoi Forbes nous a nommés parmi les meilleurs employeurs de startups en Amérique pendant deux années consécutives.
Les points Fetch sont plus que de simples récompenses ; c'est une manière de rendre l'économie d'argent amusante. Que vous scanniez des reçus de votre visite à l'épicerie ou au drive-in, Fetch rassemble les marques et les consommateurs dans une expérience unique de fidélité, faisant exploser les points. Nous sommes une entreprise technologique à croissance rapide, dirigée par ses fondateurs, avec une culture axée sur les personnes et enracinée dans la confiance et la responsabilité. Nous donnons à nos employés le pouvoir de penser grand, de remettre en question les idées et d'innover.
Si vous êtes désireux de contribuer à une entreprise qui valorise la créativité et l'innovation, postulez dès aujourd'hui pour rejoindre notre aventure passionnante !
Dans le cadre de notre équipe de données, le DataOps - Data Engineer jouera un rôle crucial dans la conception et la construction de pipelines de données scalables et efficaces ainsi que de systèmes de transformation. Vous traiterez des téraoctets de données chaque jour pour soutenir l'activité de Fetch, offrant aux parties prenantes une grande accessibilité et utilisabilité des données. Votre travail en ingénierie des données est vital pour le succès de Fetch alors que nous visons une disponibilité mondiale des données de classe mondiale.
- Développer des outils pour soutenir le développement rapide de produits de données et recommander des modèles pour les déploiements de pipelines de données.
- Créer des pipelines de données pour traiter des téraoctets de données quotidiennement, en utilisant des entrepôts de données et des lacs de données dans le cloud AWS.
- Permettre la découverte et le suivi des lignées des données, en mettant en œuvre les meilleures pratiques de gouvernance, de sécurité et de conformité des données.
- Innover avec des ensembles de données provenant de millions d'utilisateurs actifs quotidiens et appliquer les meilleures pratiques de modélisation des données.
- Concevoir des systèmes pour garantir une haute qualité des données tout au long du cycle de vie des données en développant des normes de qualité des données.
- Collaborer avec l'équipe DevOps pour intégrer les besoins en données dans les outils DevOps.
- Promouvoir une culture de collaboration, d'automatisation et d'amélioration continue des processus d'ingénierie des données.
- Se tenir au courant des technologies émergentes, des outils et des tendances en matière de traitement et d'analyse des données.
- Autonome capable de mener un projet de l'architecture à l'adoption.
- Expérience avec des outils d'Infrastructure as Code tels que Terraform ou CloudFormation pour automatiser le déploiement de l'infrastructure de données.
- Familiarité avec les processus d'Intégration Continue et de Déploiement Continu (CI/CD), y compris la configuration et la maintenance des pipelines pour les applications de données.
- Compétent dans les processus du cycle de vie du développement logiciel, avec un accent sur les sorties rapides et les améliorations progressives.
- Expérience dans l'assurance qualité des données en utilisant des outils et des cadres pour la validation des données, la détection des anomalies et la surveillance.
- Connaissance en modélisation des données et en outils comme DBT.
- Expérience avérée dans la conception et la maintenance de pipelines de données scalables traitant des téraoctets de données quotidiennement en utilisant des cadres comme Apache Spark, Kafka et Flink.
- Solides bases en principes d'architecture de données et technologies émergentes.
- Compétent dans au moins un langage de programmation moderne (Go, Python, Java, Rust) et SQL.
- À l'aise pour présenter et débattre des décisions techniques lors des revues par les pairs.
- Licence ou Master dans des domaines pertinents tels que l'informatique, la science