Dołącz do naszego zespołu jako Starszy Inżynier Danych, gdzie będziesz kierować i wspierać swój zespół w wyborze kierunków technicznych i wdrażaniu najlepszych praktyk. Wykorzystasz swoje dogłębne zrozumienie metodologii Inżynierii Danych oraz praktyczne doświadczenie w budowie wysoce skalowalnych rozwiązań.
Nasz zespół rozwija powtarzalne technologie, aby uprościć proces pozyskiwania klientów, onboarding i wzmacnianie pozycji sprzedawców, zapewniając jednocześnie bezproblemowe doświadczenia dla wszystkich interesariuszy. Koncentrujemy się również na optymalizacji taryf i asortymentu zgodnie z filozofią codziennie niskich kosztów Walmart. Naszym celem jest tworzenie przystępności cenowej i dostarczanie spersonalizowanych doświadczeń w sklepach, aplikacji mobilnej i kanałach online. Wspieramy sprzedawców na rynku USA, oferując natychmiastowe rozwiązania ich spraw i współpracując z wieloma zespołami w celu poprawy doświadczeń sprzedawców.
Jako Starszy Inżynier Danych, będziesz:
- Przewodzić zespołowi 3-5 inżynierów, w tym współpracownikom zagranicznym, w przydzielonych projektach inżynierskich, dostarczając dokumentację, wskazówki i przykłady
- Identyfikować krótko- i długoterminowe rozwiązania oraz terminy, przeglądać i zatwierdzać proponowane rozwiązania
- Realizować wiele planów biznesowych i projektów, identyfikując potrzeby operacyjne i rozwijając biznes
- Uczestniczyć w średnich do dużych, złożonych, międzyfunkcyjnych projektach
- Przeprowadzać testy jednostkowe, komunikować status i problemy oraz rozwiązywać otwarte problemy i naprawiać błędy
- Wdrażać i przeglądać nowe wzorce architektoniczne oraz przeprowadzać przeglądy projektów i kodów
- Promować i wspierać polityki, procedury, misję, wartości i standardy etyki i integracji firmy
- Ocenić bieżącą skuteczność aktualnych planów i inicjatyw, konsultując się z partnerami biznesowymi i interesariuszami
Wymagania:
Wymagane:
- Silne praktyczne doświadczenie z Hadoop, Hive, Apache Spark
- Udokumentowane doświadczenie w kodowaniu w Scala (preferowane) lub Python
- Znajomość platform chmurowych, takich jak Google Cloud Platform (GCP) lub Microsoft Azure
- Doświadczenie w budowaniu skalowalnych rozwiązań Big Data i ekosystemów ETL
- Doświadczenie z narzędziami integracyjnymi, takimi jak Automic i Airflow
- Mocne umiejętności w modelowaniu danych i protokołach migracji danych
- Praktyczna wiedza o pipeline'ach CI/CD
- Umiejętność projektowania architektury danych dla hurtowni danych, jeziora danych lub potoków end-to-end
- Znajomość zasad architektury danych, rozproszonego przetwarzania i priorytetyzacji przyjmowania danych
- Doskonałe umiejętności komunikacyjne dla członków zespołu technicznego i nietechnicznego
- Zdolność do prowadzenia technicznych relacji z partnerami i mentoringu starszych deweloperów oprogramowania
Mile widziane:
- Znajomość Databricks, ThoughtSpot, Druid, Big Query i ClickHouse
- Doświadczenie z bazami danych NoSQL, takimi jak Cosmos DB, oraz relacyjnymi