MoneyLion: Pionier w dziedzinie technologii finansowych i spersonalizowanych rozwiązań finansowych
MoneyLion jest liderem w technologii finansowej, napędzając kolejną generację spersonalizowanych produktów i treści finansowych. Dzięki naszemu wysoko ocenianemu super-aplikacji finansowej dla konsumentów oraz wiodącej platformie finansowej dla firm, przekształcamy branżę finansową. Naszą misją jest umożliwienie każdemu podejmowania najlepszych decyzji finansowych, dostarczając pewności dzięki przewodnictwu, wyborowi i personalizacji. W MoneyLion służymy wielu, nie nielicznym, i dążymy do skrócenia drogi do świadomych działań.
Dołącz do naszej technologicznej potęgi w Kuala Lumpur, gdzie napędzamy innowacje w dynamicznym i wymagającym środowisku. Jako Starszy Inżynier Danych będziesz wspierać naszych naukowców danych, analityków i inżynierów oprogramowania, dostarczając utrzymywalną infrastrukturę i narzędzia do dostarczania kompleksowych rozwiązań. Będziesz pracować z danymi na dużą skalę w wielu produktach i interesariuszach w USA, KL i Armenii, projektując i wdrażając środowiska analityczne za pomocą Pythona i/lub Javy w celu automatyzacji działań związanych z danymi.
Główne obowiązki:
- Projektowanie, wdrażanie, obsługa i ulepszanie platformy analitycznej
- Tworzenie rozwiązań danych z wykorzystaniem technologii big data i architektur o niskim opóźnieniu
- Współpraca z naukowcami danych, analitykami biznesowymi, menedżerami produktów, inżynierami oprogramowania oraz innymi inżynierami danych
- Utrzymywanie hurtowni danych z aktualnymi i wysokiej jakości danymi
- Budowanie i utrzymywanie rurociągów danych z wewnętrznych baz danych i aplikacji SaaS
- Wdrażanie najlepszych praktyk inżynierii danych
- Ulepszanie, zarządzanie i nauczanie standardów utrzymywalności kodu i wydajności
- Mentorowanie i prowadzenie młodszych inżynierów
Kwalifikacje:
- Znajomość pisania i optymalizacji zapytań SQL
- Biegłość w Pythonie, Javie lub podobnych językach
- Znajomość koncepcji hurtowni danych
- Doświadczenie z Airflow lub innymi orkiestratorami przepływu pracy
- Znajomość zasad przetwarzania rozproszonego
- Doświadczenie z technologiami big data jak Spark, Delta Lake czy inne
- Udokumentowana zdolność do innowacji i dostarczania złożonych rozwiązań
- Doskonałe umiejętności komunikacji werbalnej i pisemnej
- Zdolność do pracy z przesuwającymi się terminami w szybkim tempie
Pożądane kwalifikacje:
- Ekspertyza w optymalizacji ETL, projektowaniu, kodowaniu i dostrajaniu procesów big data z wykorzystaniem Sparka
- Znajomość koncepcji architektury big data jak Lambda czy Kappa
- Doświadczenie z przepływami strumieniowymi dla procesów o niskim opóźnieniu
- Doświadczenie w zarządzaniu jakością danych, śledzeniu pochodzenia i poprawianiu odkrywania danych
- Biegłość w systemach rozproszonych dla wysokopoziomowych struktur danych
- Znajomość AWS jest dodatkowym atutem