Analytics Engineer - Design Experience

Job expired!

Rejoignez l'équipe qui redéfinit la manière dont le monde expérimente le design.

Hey, bonjour, mabuhay, kia ora, 你好, hallo, vítejte!

Merci de vous être arrêté. Nous savons que la recherche d'emploi peut prendre du temps et vous êtes probablement curieux de découvrir ce qui est proposé, donc allons droit au but.

Notre campus principal est à Sydney. Nous avons également un campus à Melbourne et des espaces de co-working à Brisbane, Perth et Adélaïde. Mais vous avez le choix du lieu et de la manière dont vous travaillez. Cela signifie que si vous voulez travailler au bureau (si vous êtes près de l'un d'eux), à domicile ou un peu des deux, c'est à vous de décider.

À mesure que Canva se développe, le changement continue de faire partie de notre ADN. Mais nous aimons penser que cela fait partie du plaisir. Cela vous donne une idée des types de tâches sur lesquelles vous travaillerez au début, mais cela évoluera probablement.

À ce jour, ce rôle se concentre sur :

  • Appliquer les pratiques de l'ingénierie logicielle pour fournir des ensembles de données propres à partir de l'entrepôt de données aux utilisateurs finaux.
  • Collaborer avec des scientifiques des données et d’autres parties prenantes pour développer et maintenir des pipelines de données, des entrepôts de données et des modèles de données liés aux produits multimédias, aux présentations et aux tableaux blancs.
  • Travailler principalement avec SQL et Python pour automatiser et optimiser les systèmes de chargement et de transformation de données.
  • Concevoir et créer des modèles de données analytiques de bout en bout qui aident à répondre aux questions de notre équipe produit et des dirigeants de l'entreprise.
  • S'assurer que les données de nos utilisateurs sont protégées tout au long du cycle de vie des données et qu'elles sont utilisées avec leur consentement pour leur offrir une expérience produit incroyable.

Vous êtes probablement compatible si :

  • Vous avez au moins 3 ans d'expérience récente dans la construction et la gestion de grandes plateformes de données en cloud, de préférence AWS.
  • Vous avez de l'expérience avec des solutions modernes d'entrepôt de données en cloud telles que Snowflake, Redshift ou BigQuery.
  • Vous pouvez démontrer des compétences avancées en SQL et en modélisation de données.
  • Vous avez de l'expérience avec des ensembles de données orientés vers les événements de grande taille et des schémas diversifiés.
  • Vous avez développé des tableaux de bord et des systèmes de reporting.
  • Vous êtes familier avec un large éventail de principes d'entreposage de données, y compris l'architecture, les méthodologies, les schémas, les principes de performance/optimisation et les meilleures pratiques.
  • Vous avez une forte compétence dans l'application de l'approche ELT au processus d'intégration des données.
  • Vous êtes curieux et autodidacte, désireux d'apprendre continuellement de nouvelles techniques et outils pour extraire de la valeur des données.
  • Vous avez de l'expérience dans l'atteinte, le suivi et la livraison des objectifs, en travaillant à la fois de manière indépendante et en équipe.

Le groupe Multimédia vise à rendre la narration multimédia rapide, simple et amusante pour tout le monde, et le groupe des Tableaux blancs & Présentations a pour mission de réinventer la manière dont tout le monde peut collaborer pour façonner, développer et partager ses idées de manière visuelle et engageante. En tant qu'ingénieur analytique, vous travaillerez en étroite collaboration avec des scientifiques des données et des ingénieurs logiciels des deux groupes pour maintenir et construire des actifs d'entrepôt de données qui soutiennent les rapports analytiques et les expériences, aidant ainsi à atteindre les missions.

L'ingénieur analytique applique quotidiennement les meilleures pratiques de l'ingénierie logicielle. Son objectif est de maintenir et d'exploiter la plateforme de données pour fournir des ensembles de données bien définis, transformés, testés, documentés et révisés par le code.

Nous traitons des milliards de lignes et des pétaoctets de données provenant de centaines de sources différentes - y compris des événements, des bases