Associé Senior Ingénieur de Données (Databricks) L2

  • Full Time
Job expired!

Description de l'entreprise

Publicis Sapient est un partenaire de transformation numérique aidant les organisations établies à atteindre leur future situation, permettant le numérique, tant dans leur manière de travailler que dans leur manière de servir leurs clients. Nous aidons à libérer de la valeur grâce à un état d'esprit de start-up et à des méthodes modernes, en fusionnant stratégie, conseil et expérience client avec l'ingénierie agile et la créativité de résolution de problèmes. Unis par nos valeurs fondamentales et notre objectif d'aider les gens à s'épanouir dans la courageuse poursuite de ce qui suit, nos plus de 20 000 personnes dans 53 bureaux dans le monde combinent l'expérience à travers une véritable valeur

Description du poste

Publicis Sapient recherche un ingénieur de données pour faire partie de notre équipe de technologues de premier ordre. Vous dirigerez et livrerez des solutions techniques pour des projets de transformation numérique de grande envergure. Travaillant avec les dernières technologies de données de l'industrie, vous jouererez un rôle essentiel pour aider nos clients à évoluer vers un avenir plus numérique.

Vos tâches quotidiennes & impact :

  • Combinez votre expertise technique et votre passion pour la résolution de problèmes pour travailler en étroite collaboration avec les clients, en transformant des idées complexes en solutions de bout en bout qui transforment l'entreprise de nos clients.
  • Diriger, concevoir, développer et livrer des systèmes de données de grande envergure, des projets de traitement de données et de transformation de données qui créent de la valeur commerciale pour les clients
  • Automatiser les opérations de la plate-forme de données et gérer le système et les processus post-production
  • Réaliser des évaluations de faisabilité technique et fournir des estimations de projet pour la conception et le développement de la solution
  • Fournir des entrées techniques au processus agile, tels que l'épopée, l'histoire, et la définition de la tâche pour résoudre les problèmes et éliminer les obstacles tout au long du cycle de vie des engagements des clients
  • Création et maintenance de l'infrastructure comme code pour le cloud, sur site, et des environnements hybrides à l'aide d'outils tels que Terraform, CloudFormation, Azure Resource Manager, Helm, and Google Cloud Deployment Manager
  • Mentorat, aide et développement des membres juniors de l'équipe

Qualifications

Vos compétences techniques & expérience :

  • Expérience démontrable dans les plateformes de données impliquant la mise en œuvre de pipelines de données de bout en bout
  • Expérience pratique avec au moins une des principales plateformes de données de cloud public (Azure, AWS ou Google Cloud)
  • Expérience de mise en œuvre avec des technologies de base de données orientées colonnes (c'est-à-dire, Big Query, Redshift, Vertica), les technologies de base de données NoSQL (c'est-à-dire, DynamoDB, BigTable, Cosmos DB, etc.) et les systèmes de bases de données traditionnels (c'est-à-dire, SQL Server, Oracle, MySQL)
  • Expérience dans la mise en œuvre de pipelines de données pour des intégrations en streaming et en lots à l'aide d'outils/cadres comme Azure Data Factory, Glue ETL, Lambda, Spark, Spark Streaming, etc.
  • Capacité à gérer les responsabilités au niveau du module ou de la piste et à contribuer à des tâches "mains sur"
  • Expérience en modélisation de données, conception d'entrepôts et mises en œuvre de faits/dimensions
  • Expérience de travail avec des référentiels de code et d'intégration continue
  • Modélisation de données, interrogation et optimisation pour les bases de données relationnelles, NoSQL, les bases de données de séries temporelles, et les bases de données de graphes et les entrepôts de données et les lacs de données
  • Programmation de traitement de données à l'aide de SQL, DBT, Python et d'outils similaires
  • Programmation logique en Python, Spark, PySpark, Java, Javascript et/ou Scala
  • Conception et mise en œuvre de pipelines de validation, de validation et d'enrichissement de données
  • Conception de plateformes de données natives du cloud avec un accent sur les architectures basées sur les flux et les événements
  • Programmation de tests à l'aide de frameworks de tests automatisés, de cadres de validation et de qualité des données, et de cadres de lignées de données
  • Définition et gestion des métadonnées via des catalogues de données, des catalogues de services, et des outils d'intendance tels que OpenMetadata, DataHub, Alation, AWS Glue Catalog, Google Data Catalog, et similaires
  • Révision de code et mentorat
  • Diplôme de Bachelor en informatique, en ingénierie ou dans un domaine connexe.

Distinguez-vous avec :

  • Des certifications de développeur pour l'un des services cloud comme Azure, AWS, Google Cloud ou Snowflake.
  • Compréhension des méthodologies de développement et de projet
  • Volonté de voyager

Informations complémentaires

Informations complémentaires

Fourchette de rémunération : 103 000 $ - 154 000 $

Avantages de travailler ici :

  • Politique de vacances flexible ; le temps n'est pas limité, alloué, ou accumulé
  • 16 jours fériés payés tout au long de l'année
  • Congé parental généreux et programme de transition pour les nouveaux parents
  • Remboursement des frais de scolarité
  • Programme de jumelage de dons d'entreprise

Informations supplémentaires