Data Engineer

Job expired!

Vous cherchez un environnement de travail épanouissant, collaboratif, axé sur les valeurs avec des collègues et des dirigeants inspirants ? Aspirez-vous à exceller et à prospérer chez l'un des fournisseurs d'assurance les plus influents au monde ? Ne cherchez pas plus loin que Zurich Canada.

Si vous avez de l'expérience en tant qu'ingénieur de données et que vous cherchez un nouveau défi, nous voulons avoir de vos nouvelles.

Zurich Canada recrute actuellement un ingénieur de données pour rejoindre notre équipe de données informatiques. Cette équipe est responsable de maximiser la valeur des actifs de données dans l'ensemble de l'organisation. Vous contribuerez à développer et à mettre en œuvre l'environnement de données souhaité au sein de notre configuration Azure Databricks, en utilisant des outils et des technologies de pointe tout en affinant les normes et les méthodologies. Le candidat idéal doit avoir une vaste expérience avec de grands ensembles de données provenant de l'industrie de l'assurance et une solide compréhension de la création de programmes/mappages avec Azure, Databricks et les entrepôts de données. Des connaissances en ETL et en tableaux de bord Power BI dans le contexte de l'assurance sont préférées.

C'est une occasion unique d'acquérir des connaissances et de l'expérience dans un environnement de soutien où votre voix est valorisée. Il s'agit d'une opportunité de travail hybride.

  • Concevoir, concevoir et construire des solutions d'ingénierie de données en utilisant Databricks et d'autres technologies d'intégration de données. Une expérience avec Databricks sur la pile Azure est préférée, mais une expérience AWS est acceptable.
  • Avantage: Expérience antérieure avec des ensembles de données d'assurance P&C.
  • Créer des artefacts de conception représentant le cycle de vie complet de l'ingénierie des données.
  • Préconiser et appliquer des normes d'architecture telles que des modèles de conception technique, des exemples de code réutilisables et des meilleures pratiques de conception physique.
  • Soutenir le transfert de connaissances des compétences en données au sein de l'entreprise et fournir des conseils sur des projets de données complexes.
  • Concevoir des solutions d'intégration en alignement avec la stratégie d'intégration de données plus large de l'entreprise.
  • Identifier et concevoir des transformations pour maximiser la cohérence et l'utilisabilité des données, en utilisant des techniques de profilage, de nettoyage et de conformation.
  • Fournir des conseils et un mentorat aux membres juniors de l'équipe.
  • Examiner les demandes de sourcing de données et évaluer la faisabilité.
  • Développer des solutions d'intégration de données alignées avec les principes de l'entreprise.
  • Effectuer des analyses de données initiales et fournir des conseils aux entreprises.
  • Exploiter des applications d'intégration réutilisables pour des projets en utilisant le processus et l'approche de l'entreprise.
  • Permettre les échanges de données entre les applications et les systèmes source, et recueillir les données nécessaires pour répondre aux exigences des utilisateurs finaux.
  • Soutenir le développement et la mise en œuvre de normes et spécifications ETL d'entreprise.

Exigences requises :

  • Bachelor en informatique ou en mathématiques/statistiques et 6+ années d'expérience en ingénierie des données OU
  • Diplôme d'études secondaires ou équivalent et 8+ années d'expérience en ingénierie des données OU
  • Apprenti agréé par Zurich avec un diplôme d'associé en informatique ou en mathématiques/statistiques et 6+ années d'expérience en ingénierie des données
  • 5+ années d'expérience en ingénierie des données d'entreprise
  • Expérience en langages de script, outils de transformation et d'agrégation de données
  • Expérience en analyse de données, interrogation de données ou profilage de données.

Préféré :

  • Expérience avec les plateformes/technologies Cloud
  • Maîtrise des langages de script tels que Shell, Perl, Python, R, Java
  • Expérience avec les outils Big Data, notamment Spark et Kafka