Data Engineer, Fulfillment team (part time)

Job expired!

Opis firmy

Tesco jest wiodącym międzynarodowym detalistą zatrudniającym ponad 336 000 współpracowników. Nasze rozwiązania programowe są używane codziennie przez miliony osób w wielu krajach. Od kas i stron internetowych po systemy wewnętrzne, pomożesz zapewnić płynne działanie wszystkiego. Gdy pojawiają się problemy biznesowe, będziesz pracować razem z utalentowanym zespołem, aby znaleźć innowacyjne rozwiązania.

Dlaczego warto dołączyć do Tesco?

Jako część naszego Tech Hub, współpracując z zespołami w Wielkiej Brytanii, Polsce, Czechach, na Węgrzech i w Indiach, nasi współpracownicy cieszą się:

  • Rozwojem własnych produktów
  • Wielkoskalowym wpływem
  • Zaufaniem z odpowiedzialnością i szacunkiem
  • Współpracującym i wspierającym środowiskiem
  • Pracą w małych, wysoko wykwalifikowanych zespołach
  • Możliwościami ciągłego uczenia się i rozwoju

Opis stanowiska: Inżynier danych dla zespołu realizacji

Departament Inżynierii Danych w Tesco Technology prowadzi działalność w zakresie przetwarzania danych w branżach detalicznych i technologicznych. Zarządzamy:

  • Analizą danych zamówień i dostaw w celu optymalizacji logistyki i efektywności
  • Zarządzaniem danymi dotyczącymi zamówień klientów, dostawców i produktów w celu zapewnienia płynnego działania
  • Utrzymaniem integralności i bezpieczeństwa danych podczas przetwarzania

Rozszerzamy naszą działalność i aktywnie poszukujemy wykwalifikowanego inżyniera danych do naszego zespołu analitycznego. Będziesz odpowiedzialny za usprawnianie naszej architektury danych i pipeline, optymalizację przepływu danych oraz zabezpieczenie potrzeb zespołów międzyfunkcyjnych.

Jeśli kochasz budować i optymalizować systemy danych od podstaw, ta rola jest idealna dla Ciebie. Będziesz ściśle współpracować z programistami, architektami baz danych, analitykami danych i naukowcami zajmującymi się danymi nad inicjatywami opartymi na danych, zapewniając spójną architekturę dostarczania danych we wszystkich projektach. Samodzielność i umiejętność wspierania wymagań dotyczących danych dla wielu zespołów, systemów i produktów są kluczowe w tej roli.

Kluczowe obowiązki

  • Tworzenie i utrzymywanie optymalnej architektury pipeline danych
  • Kompletacja dużych, złożonych zbiorów danych w celu spełnienia wymagań biznesowych
  • Automatyzacja procesów manualnych i optymalizacja dostarczania danych
  • Budowanie infrastruktury do ekstrakcji, transformacji i ładowania danych (ETL)
  • Rozwój narzędzi analitycznych dla uzyskania cennych informacji biznesowych
  • Wsparcie potrzeb infrastruktury danych różnych zespołów
  • Utrzymanie separacji i bezpieczeństwa danych
  • Współpraca z ekspertami ds. danych i analiz w celu usprawnienia funkcjonalności systemu

Kwalifikacje

Wymagane umiejętności:

  • Przetwarzanie danych: Apache Spark - Scala lub Python
  • Przechowywanie danych: Apache HDFS lub odpowiednik w chmurze
  • Menadżer zasobów: Apache Yarn lub odpowiednik w chmurze
  • Lakehouse: Apache Hive/Kyuubi lub alternatywa
  • H