Architecte de Données - Databricks

Job expired!

Description de l'entreprise

Publicis Sapient est un partenaire de transformation numérique aidant les organisations établies à atteindre leur futur état numériquement activé, tant dans leur façon de travailler que dans leur façon de servir leurs clients. Nous aidons à libérer de la valeur grâce à une mentalité de start-up et à des méthodes modernes, en fusionnant stratégie, conseil et expérience client avec une ingénierie agile et une créativité de résolution de problèmes. Unis par nos valeurs fondamentales et notre objectif d'aider les gens à prospérer dans la poursuite courageuse du suivant, nos plus de 20 000 personnes dans 53 bureaux à travers le monde combinent l'expérience à travers une véritable valeur

Description du poste

Publicis Sapient recherche un Architecte de Données pour rejoindre notre équipe de penseurs et de praticiens brillants. Vous utiliserez votre créativité en résolution de problèmes pour concevoir, architecturer et développer des solutions technologiques haut de gamme qui résolvent les problèmes les plus complexes et les plus difficiles de nos clients dans différents secteurs. Nous sommes en mission pour transformer le monde, et vous jouerez un rôle déterminant dans la manière dont nous le faisons avec vos idées, vos pensées et vos solutions.

Vos tâches journalières et Impact:

  • Travailler en étroite collaboration avec nos clients fournissant une évaluation et des recommandations de modèles de conception et de solutions pour les plateformes de données avec un accent sur ETL, ELT, ALT, lambda, et les architectures kappa
  • Définir les SLA, SLI et SLO avec des entrées des clients, des propriétaires de produits et des ingénieurs pour offrir des expériences interactives basées sur les données
  • Fournir une expertise, une preuve de concept, un prototype et des implémentations de référence de solutions architecturales pour les plateformes de données cloud, on-prem, hybrides et basées sur le bord
  • Fournir des intrants techniques aux processus agiles, tels que la définition d'épopée, d'histoire et de tâche pour résoudre les problèmes et éliminer les obstacles tout au long du cycle de vie des engagements clients
  • Création et maintenance de l'infrastructure en tant que code pour les environnements cloud, on-prem et hybrides en utilisant des outils tels que Terraform, CloudFormation, Azure Resource Manager, Helm, et Google Cloud Deployment Manager
  • Mentorat, soutien et gestion des membres de l'équipe

Qualifications

  • Expérience démontrable dans les plateformes de données d'entreprise impliquant la mise en œuvre de pipelines de données de bout en bout
  • Expérience pratique de l'utilisation de Databricks
  • Expérience pratique avec au moins l'une des principales plateformes de données cloud public (Amazon Web Services, Azure ou Google Cloud)
  • Expérience avec les technologies de bases de données orientées colonnes (par exemple, Big Query, Redshift, Vertica), les technologies de bases de données NoSQL (par exemple, DynamoDB, BigTable, Cosmos DB, etc.) et les systèmes de bases de données traditionnels (par exemple, SQL Server, Oracle, MySQL)
  • Expérience dans l'architecture de pipelines de données et de solutions pour les intégrations en temps réel et par lots en utilisant des outils/cadres comme Glue ETL, Lambda, Google Cloud DataFlow, Azure Data Factory, Spark, Spark Streaming, etc.
  • Définition et gestion des métadonnées via des catalogues de données, des catalogues de services, et des outils d'intendance tels que OpenMetadata, DataHub, Alation, AWS Glue Catalog, Google Data Catalog.
  • Création de plan de test et programmation de test en utilisant des cadres de test automatisés, des cadres de validation et de qualité des données, et des cadres de lignage de données
  • Modélisation de données, requêtage, et optimisation pour les bases de données relationnelles, NoSQL, timeseries, graph databases, entrepôts de données, et lacs de données
  • Programmation de traitement de données en utilisant SQL, DBT, Python, et des outils similaires
  • Programmation logique en Python, Spark, PySpark, Java, Javascript, et/ou Scala
  • Conception de plateforme de données natifs au cloud avec un accent sur les architectures pilotées par événement
  • Participation à des sessions de validation et d'analyse intégrées des composants et des sous-systèmes sur les serveurs de production
  • Conception et mise en œuvre de pipelines d'ingest, de validation, et d'enrichissement des données
  • Optimisation du cycle de vie du développement logiciel à travers les flux de travail au sein d'une solution
  • Baccalauréat en informatique, en génie, ou dans un domaine connexe


Démarquez-vous avec :

  • Les certifications pour l'un des services cloud comme AWS, GCP ou Azure
  • Expérience de travail avec les dépôts de code et l'intégration continue
  • Compréhension des méthodologies de développement et de projet

Informations supplémentaires

Plage de rémunération : 108 000 $ - 210 000 $

Avantages de travailler ici :

  • Politique de vacances flexible ; le temps n'est pas limité, alloué ou accumulé
  • 16 jours fériés payés tout au long de l'année
  • Un généreux congé parental et un programme de transition pour les nouveaux parents
  • Remboursement des frais de scolarité
  • Programme de jumelage de cadeaux d'entreprise

Dans le cadre de notre engagement envers une main-d'œuvre inclusive et diversifiée, Publicis Sapient est engagée envers l'égalité des chances d'emploi sans égard à la race, la couleur, l'origine nationale, l'ethnicité, le sexe, le statut de vétéran protégé, l'invalidité, l'orientation sexuelle, l'identité de genre, ou la religion. Nous nous engageons également à fournir des accommodations raisonnables pour les personnes qualifiées handicapées et les vétérans handicapés dans nos procédures de demande d'emploi. Si vous avez besoin d'aide ou d'une accommodation en raison d'un handicap, vous pouvez nous contacter à [email protected] ou vous pouvez nous appeler au +1-617-621-0200.