Data Engineer, Client Experience Platform - Associate

Job expired!

Rejoignez BlackRock en tant qu'ingénieur en données sur la plateforme Client Experience

Êtes-vous passionné par la révolution de l'industrie des services financiers grâce à la technologie ? BlackRock, un leader mondial des finances depuis 1988, est à la recherche de talentueux ingénieurs logiciels. Notre plateforme propriétaire, Aladdin, gère des actifs d'une valeur de plus de 10 000 milliards USD, aidant des millions de personnes à investir pour leur retraite, à payer leurs études, à acheter des maisons et à améliorer leur bien-être financier.

Les données sont la pierre angulaire d'Aladdin. Notre avantage concurrentiel réside dans notre capacité à consommer, stocker, analyser et tirer des informations à partir des données. L’équipe Client Experience Platform développe des expériences intégrées sur les canaux de bureau, web et mobile pour une variété d'utilisateurs, y compris les clients, les régulateurs, les ingénieurs et les professionnels de la vente. La mission est de fournir des expériences de premier ordre tout au long du parcours client.

En tant qu'ingénieur logiciel, vous jouerez un rôle clé dans la construction de la plateforme de données clients sur le Cloud, qui offre une vue complète de notre écosystème CRM, Sales et Service. Votre objectif sera de créer des pipelines de données évolutives, de transformer les données et de garantir qu'elles répondent aux normes de qualité les plus élevées pour être utilisées par notre Global Client Business, US Wealth Advisory, les équipes exécutives et les data scientists.

En tant qu'ingénieur en données senior, vous allez :

  • Améliorer les offres de distribution et de service des ventes au détail de BlackRock en développant et en optimisant notre architecture de données et de pipeline.
  • Créer et opérationnaliser des pipelines de données pour fournir des produits de haute qualité basés sur les données.
  • Gérer des ensembles de données de haute qualité pour les utilisateurs et applications internes et externes.

Responsabilités

  • Diriger la création et la maintenance d'architectures de pipelines de données optimisées sur de vastes ensembles de données.
  • Assembler des ensembles de données complexes qui répondent aux exigences commerciales.
  • Identifier, concevoir et mettre en œuvre des améliorations de processus internes, et les communiquer aux équipes technologiques concernées.
  • Aider les parties prenantes à résoudre les problèmes techniques liés aux données et à répondre à leurs besoins en infrastructure de données.
  • Automatiser les processus d'ingestion de données et optimiser la livraison des données selon les accords de niveau de service.
  • Assurer la séparation et la ségrégation des données conformément aux exigences politiques.
  • Développer des outils pour soutenir les tâches des data scientists.
  • Rester à jour avec les dernières tendances technologiques dans le domaine des big data et recommander des améliorations au besoin.
  • Enquêter et résoudre les divergences de données et prévenir les occurrences futures grâce à une collaboration interfonctionnelle.

Qualifications

  • Plus de 6 ans d'expérience pratique en ingénierie logicielle, principalement dans le big data.
  • Plus de 5 ans d'expérience en programmation Python ou Scala, y compris la création et le support d'UDF et de modules comme pytest.
  • Plus de 5 ans d'expérience dans la construction et l'optimisation de pipelines de données, d'architectures et d'ensembles de données, utilisant des outils tels qu'Airflow, DBT et Kafka.
  • Compétent avec Spark dans des environnements de production, y compris la planification d'exécution et la gestion des ressources.
  • Expérience dans l'utilisation de Hive, Yarn et Sqoop, y compris des formats de fichiers comme ORC, PARQUET et AVRO.
  • Expérience avec Transact SQL, No-SQL et GraphQL.
  • Expertise avérée avec Snowflake.
  • Expérience dans le déploiement, la maintenance et l'administration de technologies Cloud (Azure de préférence), OpenStack, Docker, Kafka et Kubernetes.
  • Expérience préférée : Machine Learning, Intelligence Artificielle et IA générative.

Nos avantages