Data Engineer, Data Products

Job expired!

Façonnez un avenir financier plus brillant avec SoFi. Rejoignez-nous pour transformer la manière dont les gens interagissent avec les finances personnelles. En tant que société de services financiers de nouvelle génération et banque nationale, nous exploitons une technologie innovante, axée sur le mobile, pour aider des millions de nos membres à atteindre leurs objectifs. Faites partie d'une équipe de premier plan dans l'industrie, ayant un impact significatif sur la vie des gens, guidée à chaque étape par nos valeurs fondamentales. Investissez en vous-même, dans votre carrière et dans le monde financier avec SoFi.

SoFi recherche un Ingénieur de Données expérimenté et motivé pour rejoindre notre équipe Produits de Données. La mission de cette équipe est d'activer les données au sein de SoFi, créant des expériences personnalisées et agréables pour nos membres. Notre groupe Produits de Données conçoit, développe et maintient l'Entrepôt de Données d'Entreprise (EDW). L'EDW permet aux consommateurs de données dans les domaines commerciaux, scientifiques et techniques de combiner facilement des données entre produits, de prendre des décisions commerciales éclairées et de compléter les rapports réglementaires. En tant qu'Ingénieur de Données, vous vous concentrerez sur la conception, la construction et la maintenance de nouvelles pipelines de données et ensembles de données pour les flux de travail à travers différentes unités commerciales chez SoFi. Vous travaillerez sur des produits de données fondamentaux et critiques, permettant des cas d'utilisation analytiques, de reporting et d'apprentissage automatique. Notre objectif est de permettre à toutes les équipes de SoFi d'accéder à des données de haute qualité, hautement disponibles, et de démocratiser l'accès aux données via des outils en libre-service.

Nous recherchons un Ingénieur de Données talentueux, enthousiaste, orienté vers les détails et expérimenté, capable de relever les défis des données massives de manière agile. Ce rôle englobe la conception et l'analyse des données, la modélisation des données, ainsi que le développement, le déploiement et l'exploitation des pipelines de big data. Vous dirigerez le développement de pipelines et ensembles de données critiques, élargissant nos connaissances et capacités en matière de données en libre-service. Ce rôle vous place à l'intersection des données et de l'ingénierie, nécessitant une compréhension approfondie des données, des techniques analytiques et une expérience pratique du maintien de normes opérationnelles élevées pour les pipelines ETL et de big data.

  • Concevoir et développer des architectures et pipelines de données robustes pour soutenir l'ingestion, le traitement, le stockage et la récupération des données.
  • Évaluer et sélectionner les technologies, frameworks et outils appropriés pour construire une infrastructure de données évolutive et fiable.
  • Optimiser les systèmes et processus d'ingénierie des données pour gérer efficacement les ensembles de données à grande échelle, en concevant des solutions évolutives horizontalement et verticalement.
  • Collaborer avec des équipes interfonctionnelles, telles que les scientifiques de données, les ingénieurs logiciels et les parties prenantes commerciales, pour comprendre les exigences en matière de données et fournir des solutions répondant aux besoins commerciaux. Communiquer clairement des concepts techniques complexes aux parties prenantes non techniques.
  • Appliquer les politiques et pratiques de gouvernance des données pour maintenir l'intégrité, la sécurité et la conformité des données avec les réglementations pertinentes. Travailler avec les équipes de gouvernance et de sécurité des données pour mettre en œuvre des mécanismes de protection des données et des contrôles d'accès robustes.
  • Diplôme de licence en Informatique, Science des Données, Ingénierie, ou dans un domaine connexe.
  • Minimum 2 ans d'expérience en ingénierie des données et en stratégie technique analytique.
  • Maîtrise des technologies d'ingénierie des données, y compris Snowflake, Python, SQL, GitLab, AWS, Airflow, DBT, et autres.
  • Expérience avec des plateformes de bases de données relationnelles et cloud comme Snowflake, Redshift ou GCP.
  • Compétences en programmation solides en Python et/ou dans un autre langage centré sur les données.
  • Connaissance approfondie de la modélisation des données, de la conception de bases de données, des principes d'architecture des données et des opérations de données.
  • Aptitudes analytiques et de résolution de problèmes robustes, capable de simpl