Opis stanowiska
Dołącz do Nordstrom Analytical Platform (NAP), analitycznej platformy w czasie rzeczywistym, skoncentrowanej na strumieniowym przesyłaniu zdarzeń, mającej na celu dostarczanie wysokiej jakości, zszytych widoków 360 stopni naszych klientów, produktów, zapasów, obsługi klienta, realizacji, logistyki i kredytu. Zespół Insights Delivery oferuje kluczowe dane i analizy, umożliwiając analitykom danych, naukowcom danych, liderom, personelowi sklepowemu i innym użytkownikom biznesowym Nordstrom aby inspirować kluczowe doświadczenia klientów w czasie zbliżonym do rzeczywistego.
W tej roli będziesz:
- Projektować i rozwijać skalowalne i trwałe rozwiązania analityczne z danymi, wykorzystując technologię wewnętrzną i nowoczesną w zwinnym środowisku.
- Rozumieć specyficzne potrzeby kluczowej linii biznesowej oraz związanych z nią zestawów aplikacji, systemów lub funkcji.
- Projektować i rozwijać rozproszone pipeline'y przetwarzania danych w ekosystemie Big Data w chmurze.
- Stosować koncepcje danych, modelowanie, struktury i technologie infrastruktury, przestrzegając przy tym solidnych praktyk inżynierskich.
- Prowadzić przeglądy kodu i przestrzegać zasad inżynierii oprogramowania.
- Tworzyć narzędzia testowe i pipeline'y CI/CD w celu przyspieszenia osiągania wyników biznesowych.
- Identyfikować problemy z wydajnością danych i optymalizować rozwiązania.
- Wpływać na standardy jakości i ich przestrzegać w całym rozwiązaniu.
- Zapewniać bieżące wsparcie produkcyjne oraz pełnić funkcję wsparcia na wezwanie, współpracując zarówno z zasobami lokalnymi, jak i z zasobami zdalnymi.
- Zarządzać oszczędnościami kosztów, powiadomieniami produkcyjnymi, alertami oraz pulpitami do logowania.
- Współpracować z menedżerami produktów, analitykami danych, naukowcami danych, partnerami biznesowymi oraz innymi zespołami technicznymi.
- Współpracować z analitykami w celu dostarczenia efektywnych rozwiązań samoobsługowych BI.
- Komunikować się jasno i efektywnie z zespołami partnerskimi.
Idealny kandydat powinien mieć:
- Co najmniej 3 lata doświadczenia w przynajmniej jednym nowoczesnym języku programowania, takim jak Java lub Python.
- Co najmniej 2 lata doświadczenia z bazami danych, SQL, modelowaniem danych, wydobywaniem danych i zautomatyzowanymi rozwiązaniami inżynieryjnymi. Znajomość GCP Big Query i Presto jest dodatkowym atutem.
- Doświadczenie z środowiskami chmurowymi, takimi jak AWS lub GCP.
- Doświadczenie w tworzeniu rozwiązań przetwarzania danych w czasie zbliżonym do rzeczywistego, wykorzystując Kafka, Flink, Spark, Kubernetes, Airflow.
- Doświadczenie w skalowalnych rozproszonych systemach, architekturze zorientowanej na usługi oraz architekturze strumieniowej opartej na zdarzeniach.
- Doświadczenie w najlepszych praktykach inżynierii danych oraz doskonałości operacyjnej.
- Tytuł licencjata lub magistra z dziedziny informatyki, inżynierii lub równoważne praktyczne doświadczenie.
- Pasję do innowacyjnych technologii, doskonałości operacyjnej i wpływu na klientów.