Ingénieur Logiciel Senior - Ingénierie des données

Job expired!

À Coinbase, notre mission est d' accroître la liberté économique à travers le monde, et nous ne pourrions pas le faire sans embaucher les meilleures personnes. Nous sommes un groupe de personnes travaillant dur qui se concentrent intensément sur la construction de l'avenir de la finance et de Web3 pour nos utilisateurs à travers le monde, que ce soit pour le trading, le stockage, le staking ou l'utilisation de crypto. Vous savez, ces gens qui dirigent toujours le projet de groupe ? C'est nous.

Il y a quelques éléments que nous recherchons chez tous les candidats que nous embauchons chez Coinbase, quel que soit le rôle ou l'équipe. D'abord, nous cherchons des candidats qui s'épanouiront dans une culture comme la nôtre, où nous faisons confiance par défaut, encourageons les feedbacks, et nous nous dérangeons nous-mêmes. Deuxièmement, nous attendons de tous les employés qu'ils s'engagent dans notre approche axée sur la mission de notre travail. Enfin, nous recherchons des personnes qui sont impatientes d'apprendre et de vivre avec la crypto, car ce sont ces personnes qui apprécient les moments intenses dans notre culture de travail en sprint et de recharge. Nous sommes une entreprise qui privilégie le travail à distance et cherche à embaucher les meilleurs talents du monde entier.

Prêt à #LiveCrypto ? Qui vous êtes :

  • Vous débordez d'énergie positive. Vous êtes optimiste quant à l'avenir et déterminé à y parvenir.
  • Vous ne vous lassez jamais d'apprendre. Vous voulez devenir un professionnel dans des technologies de pointe comme DeFi, NFTs, DAOs, et Web 3.0.
  • Vous appréciez la communication directe. Vous êtes à la fois un communicateur actif et un auditeur avide - car avouons-le, on ne peut pas avoir l'un sans l'autre. Vous êtes à l'aise avec les retours sincères et voyez chaque revers comme une opportunité de croissance.
  • Vous pouvez pivoter sur le moment. La crypto évolue constamment, donc nos priorités aussi. Ce que vous avez travaillé le mois dernier n'est peut-être pas ce sur quoi vous travaillez aujourd'hui, et cela vous excite. Vous ne cherchez pas un travail ennuyeux.
  • Vous avez une attitude d' "on peut le faire". Nos équipes produisent un travail de haute qualité dans des délais rapides. Assumer un problème ne vous effraie pas, au contraire, cela vous donne l'impulsion nécessaire pour prendre 100% de responsabilité pour réaliser notre mission.
  • Vous voulez faire partie d'une équipe gagnante. Nous sommes plus forts ensemble, et vous êtes une personne qui aime être poussée hors de sa zone de confort.

Le pôle ingénierie de données crée des sources de données fiables et de confiance et des produits pour permettre une prise de décision basée sur des données précises et opportunes à travers l'entreprise. Nous sommes à la pointe de l'innovation en matière de science des données et d'intelligence d'affaires. En transformant comment les données sont découvertes et consommées, nous préparons le terrain pour l'avenir de l'analyse.

Nos principales offres :

  • Construction et maintenance d'une couche de données fondamentale, qui sert de seule source de vérité à travers Coinbase.
  • Conception et mise en œuvre de pipelines de données robustes, garantissant la qualité des données et la livraison opportune des données à travers notre organisation.
  • Conception de solutions innovantes de développement qui introduisent de l'automatisation dans les processus de science des données, améliorant l'efficacité.
  • Fourniture de produits de données sur mesure, conçus pour permettre aux utilisateurs de s'auto-servir et de garantir des réponses précises à leurs requêtes de données.

Vos responsabilités (c'est-à-dire vos missions) :

  • Modélisation des données :
    • Construire et refactoriser les magasins de données pour améliorer la découverte et la précision des données.
    • Concevoir, architecturer et maintenir un magasin de données marketing.
    • Introduire des mécanismes d'automatisation pour renforcer les meilleures pratiques en matière de données et les principes de conception optimales dans la mesure du possible.
  • Développement et optimisation des pipelines de données :
    • Développer de nouveaux pipelines de données et des processus d'ETL, et améliorer l'efficacité des processus existants pour réduire les coûts et améliorer les délais de livraison et les SLA.
    • Transférer les pipelines de données vers dbt et créer des fonctionnalités qui permettent aux data scientists d'utiliser la plateforme.
  • Intégration :
    • Construire et maintenir des pipelines d'intégration avec des plateformes de gestion de marketing comme Iterable.
  • Construire des systèmes évolutifs :
    • Construire des systèmes pour automatiser la surveillance et l'alerte sur les anomalies des données.
    • Construir des produits internes pour automatiser des flux de travail, minimiser les interventions manuelles et augmenter l'efficacité opérationnelle.
  • Collaboration :
    • Collaborer étroitement avec des data scientists et autres parties prenantes pour garantir l'alignement sur les besoins en données et les livrables.
    • Maintenir une documentation claire et complète des processus pour faciliter une collaboration d'équipe fluide et des transitions.

Ce que nous recherchons chez vous (c'est-à-dire les exigences du poste) :

  • Modélisation des données : Compréhension des meilleures pratiques pour la modélisation des données, y compris les schémas en étoile, les schémas en étoile à neige, et les techniques de normalisation des données.
  • Processus ETL/ELT : Expérience dans la conception, la construction, et l'optimisation des pipelines ETL/ELT pour traiter de grands ensembles de données.
  • Apache Airflow : Expérience dans la construction, le déploiement, et l'optimisation de DAGs dans Airflow.
  • Python et SQL : Vous devez être compétent dans l'écriture de scripts en Python, surtout pour les tâches de manipulation et d'intégration de données, et avoir une solide compréhension des techniques avancées de SQL pour les requêtes, la transformation, et l'optimisation des performances.
  • GitHub : Expérience avec le contrôle de version, l'établissement de branches, et la collaboration sur GitHub.
  • Visualisation des données : Connaissance d'outils tels que Superset, Looker ou des bibliothèques de visualisation en Python (Matplotlib, Seaborn, Plotly…etc).

Atouts appréciés :

  • Compétence dans la construction, l'affinage, et la gestion de pipelines de données spécifiques aux plateformes et canaux de marketing.
  • Expérience dans le pipeline de données marketing et l'intégration d'outils tiers.
  • Familiarité avec les plateformes et outils de gestion d'e-mails comme Iterable et la compréhension des structures de données qui soutiennent le ciblage d'e-mails.
  • Familiarité avec Docker, Kubernetes, et les plateformes cloud comme AWS/GCP.
  • Connaissance des pratiques fondamentales de DevOps, y compris les tests unitaires et la gestion de dépôt.
  • Expérience en gouvernance des données est préférée, mais non requise.
  • Certaines connaissances en ML, AI, ou NLP.

ID: P52953

Avis de transparence salariale : En fonction de votre w