Senior Data Engineer

Job expired!

MoneyLion: Pionier w dziedzinie technologii finansowych i spersonalizowanych rozwiązań finansowych

MoneyLion jest liderem w technologii finansowej, napędzając kolejną generację spersonalizowanych produktów i treści finansowych. Dzięki naszemu wysoko ocenianemu super-aplikacji finansowej dla konsumentów oraz wiodącej platformie finansowej dla firm, przekształcamy branżę finansową. Naszą misją jest umożliwienie każdemu podejmowania najlepszych decyzji finansowych, dostarczając pewności dzięki przewodnictwu, wyborowi i personalizacji. W MoneyLion służymy wielu, nie nielicznym, i dążymy do skrócenia drogi do świadomych działań.

Dołącz do naszej technologicznej potęgi w Kuala Lumpur, gdzie napędzamy innowacje w dynamicznym i wymagającym środowisku. Jako Starszy Inżynier Danych będziesz wspierać naszych naukowców danych, analityków i inżynierów oprogramowania, dostarczając utrzymywalną infrastrukturę i narzędzia do dostarczania kompleksowych rozwiązań. Będziesz pracować z danymi na dużą skalę w wielu produktach i interesariuszach w USA, KL i Armenii, projektując i wdrażając środowiska analityczne za pomocą Pythona i/lub Javy w celu automatyzacji działań związanych z danymi.

Główne obowiązki:

  • Projektowanie, wdrażanie, obsługa i ulepszanie platformy analitycznej
  • Tworzenie rozwiązań danych z wykorzystaniem technologii big data i architektur o niskim opóźnieniu
  • Współpraca z naukowcami danych, analitykami biznesowymi, menedżerami produktów, inżynierami oprogramowania oraz innymi inżynierami danych
  • Utrzymywanie hurtowni danych z aktualnymi i wysokiej jakości danymi
  • Budowanie i utrzymywanie rurociągów danych z wewnętrznych baz danych i aplikacji SaaS
  • Wdrażanie najlepszych praktyk inżynierii danych
  • Ulepszanie, zarządzanie i nauczanie standardów utrzymywalności kodu i wydajności
  • Mentorowanie i prowadzenie młodszych inżynierów

Kwalifikacje:

  • Znajomość pisania i optymalizacji zapytań SQL
  • Biegłość w Pythonie, Javie lub podobnych językach
  • Znajomość koncepcji hurtowni danych
  • Doświadczenie z Airflow lub innymi orkiestratorami przepływu pracy
  • Znajomość zasad przetwarzania rozproszonego
  • Doświadczenie z technologiami big data jak Spark, Delta Lake czy inne
  • Udokumentowana zdolność do innowacji i dostarczania złożonych rozwiązań
  • Doskonałe umiejętności komunikacji werbalnej i pisemnej
  • Zdolność do pracy z przesuwającymi się terminami w szybkim tempie

Pożądane kwalifikacje:

  • Ekspertyza w optymalizacji ETL, projektowaniu, kodowaniu i dostrajaniu procesów big data z wykorzystaniem Sparka
  • Znajomość koncepcji architektury big data jak Lambda czy Kappa
  • Doświadczenie z przepływami strumieniowymi dla procesów o niskim opóźnieniu
  • Doświadczenie w zarządzaniu jakością danych, śledzeniu pochodzenia i poprawianiu odkrywania danych
  • Biegłość w systemach rozproszonych dla wysokopoziomowych struktur danych
  • Znajomość AWS jest dodatkowym atutem