Data Engineer (Spark, Scala, Python, Cassandra, Elasticsearch, AWS, Airflow, SQL)

Job expired!

W Nielsen jesteśmy głęboko zaangażowani w rozwijanie kultury wzrostu, innowacji i partnerstwa. Dołączając do naszego zespołu liczącego prawie 14 000 zaangażowanych współpracowników, wstąpisz do społeczności zaprojektowanej, by wspierać Twój sukces. Kiedy Ty się rozwijasz, my też się rozwijamy. Oferujemy Ci wolność do inicjowania nowych projektów, poszukiwania nowatorskich podejść i myślenia ambitnie, co z kolei napędza ciągłą poprawę w całej naszej organizacji.

Szukamy wykwalifikowanego Inżyniera Danych, który będzie ściśle współpracować z liderami zespołów i programistami backendowymi przy projektowaniu i tworzeniu solidnych łańcuchów operacyjnych w celu poprawy operacji wewnętrznych i obsługi klienta. Jako część naszego dynamicznego zespołu, wesprzesz naszą przyszłość swoją wiedzą fachową.

  • Tworzenie funkcjonalnych i solidnych łańcuchów operacyjnych spełniających zarówno wewnętrzne potrzeby, jak i oczekiwania klientów.
  • Pisanie testów jednostkowych i integracyjnych, rozwijanie narzędzi automatyzacji i efektywne zarządzanie codziennymi zadaniami.
  • Tworzenie dobrze udokumentowanego, wydajnego kodu i optymalizacja skalowalnych łańcuchów operacyjnych w chmurze.
  • Zapewnienie optymalnej wydajności i skalowalności wewnętrznych i zewnętrznych aplikacji.
  • Regularne angażowanie się z interesariuszami, menedżerami projektów i zespołami kontroli jakości w celu omówienia długoterminowych rozwiązań technologicznych i postępów.
  • Rekomendowanie rozwiązań systemowych przez ocenę korzyści i wad rozwoju własnego w porównaniu z gotowymi alternatywami.

Specjalistyczna wiedza: 2+ lata doświadczenia w inżynierii oprogramowania/danych z wykształceniem wyższym na kierunku Informatyka, MIS lub Inżynieria będą bardzo mile widziane.

  • Rozwój oprogramowania przy użyciu Java lub Scala, oraz znajomość technologii Big Data, takich jak Hadoop, Spark i Spark SQL.
  • Korzystanie z środowisk chmurowych, preferowane AWS, z praktycznym doświadczeniem w Docker, RDBMS (Postgres/Oracle), Linux i skrypty powłoki.
  • Narzędzia orkiestracji takie jak Apache Airflow oraz solidna znajomość GitLab, Cassandra, Elasticsearch i specyfiki AWS (S3, EC2, EMR, Lambda).
  • Skuteczna praca w ramach ram scrumowych agile oraz wykorzystanie Gitlab/Bitbucket do kontroli wersji.

Certyfikat AWS będzie dodatkowym atutem.

Idealni kandydaci będą wykazywać się silnymi zdolnościami komunikacyjnymi, sprawnością w przekazywaniu skomplikowanych koncepcji technicznych i dostosowywaniem zespołów do podjętych decyzji. Umiejętność rozwiązywania problemów, szybkiego przetwarzania skomplikowanych informacji i efektywnej współpracy w celu tworzenia innowacyjnych rozwiązań jest