Data Engineer, Fulfillment team (part time)

Job expired!

Description de l'entreprise

Tesco est un détaillant multinationale de premier plan avec plus de 336 000 collègues. Nos solutions logicielles sont utilisées quotidiennement par des millions de personnes à travers plusieurs pays. Des caisses et sites web aux systèmes internes, vous aiderez à tout faire fonctionner sans problème. Lorsque des problèmes commerciaux surviennent, vous travaillerez aux côtés d'une équipe talentueuse pour trouver des solutions innovantes.

Pourquoi rejoindre Tesco ?

En tant que membre de notre Tech Hub, collaborant avec des équipes au Royaume-Uni, en Pologne, en République tchèque, en Hongrie et en Inde, nos collègues bénéficient de :

  • Développer des produits propriétaires
  • Faire un impact à grande échelle
  • Être dignes de confiance avec responsabilité et respect
  • Un environnement collaboratif et solidaire
  • Travailler au sein de petites équipes hautement qualifiées
  • Des opportunités continues d'apprentissage et de développement

Description du poste : Data Engineer pour l'équipe Fulfillment

Le département Data Engineering chez Tesco Technology mène la charge du traitement des données dans les industries du commerce de détail et de la technologie. Nous gérons :

  • L'analyse des données de commande et de livraison pour une logistique et une efficacité optimisées
  • La gestion des commandes clients, des fournisseurs et des données de produits pour faciliter des opérations fluides
  • Le maintien de l'intégrité et de la sécurité des données pendant leur traitement

Nous nous développons et recherchons activement un ingénieur de données qualifié pour rejoindre notre équipe analytique. Vous serez responsable de l'amélioration de notre architecture de données et de pipelines, de l'optimisation des flux de données, et de veiller à ce que les besoins des équipes transversales soient satisfaits.

Si vous aimez construire et optimiser des systèmes de données à partir de zéro, ce rôle est parfait pour vous. Vous travaillerez en étroite collaboration avec des développeurs de logiciels, des architectes de bases de données, des analystes de données et des scientifiques des données sur des initiatives basées sur les données, en vous assurant que l'architecture de livraison des données est cohérente sur tous les projets. L'autonomie et la capacité à supporter les besoins en données de plusieurs équipes, systèmes et produits sont essentielles dans ce rôle.

Responsabilités clés

  • Créer et maintenir une architecture de pipeline de données optimale
  • Assembler de grandes ensembles de données complexes pour répondre aux exigences commerciales
  • Automatiser les processus manuels et optimiser la livraison des données
  • Construire l'infrastructure pour l'extraction, la transformation et le chargement (ETL) des données
  • Développer des outils analytiques pour des insights commerciaux exploitables
  • Soutenir les besoins en infrastructure de données pour diverses équipes
  • Maintenir la séparation et la sécurité des données
  • Collaborer avec des experts en données et en analytique pour améliorer la fonctionnalité du système

Qualifications

Compétences obligatoires :

  • Traitement des données : Apache Spark - Scala ou Python
  • Stockage des données : Apache HDFS ou alternative cloud respective
  • Gestionnaire de ressources : Apache Yarn ou alternative cloud respective
  • Lakehouse : Apache Hive/Kyuubi ou alternative
  • Planificateur de workflow : Airflow ou alternative

Compétences souhaitées :

  • Programmation fonctionnelle
  • Apache Kafka
  • Kubernetes
  • Traitement en flux
  • CI/CD

Informations supplémentaires

Flexibilité : Nous offrons des opportunités à temps partiel (environ 120 heures par mois ou plus). Faites-nous part de vos heures de travail préférées.

Travail hybride : Nous opérons selon un modèle hybride avec 2 jours par semaine à notre bureau de Crac