Data Analyst (SQL, PLSQL, Unix, python)

Job expired!

Dołącz do HARMAN, gdzie nasi inżynierowie i projektanci są znani ze swojej kreatywności, celowości i zwinności. Jako członek naszego innowacyjnego zespołu, połączysz swoje techniczne umiejętności z twórczymi pomysłami, aby opracowywać nowatorskie rozwiązania w sektorach motoryzacyjnym, korporacyjnym i połączonym ekosystemie. W HARMAN dajemy Ci możliwości korzystania z najnowszych technologii, mnóstwo możliwości i rozległe zasoby do budowania udanej kariery.

Dlaczego wybrać HARMAN?

Jako szybko rozwijający się lider technologii, HARMAN składa się z osób zaangażowanych w poprawę jakości życia. Nasze wartości kluczowe to innowacyjność, inkluzywność i praca zespołowa. Razem podejmujemy się wyzwań i rozwiązujemy trudne problemy, tworząc środowisko, w którym możesz się rozwijać, wywierać znaczący wpływ i być dumnym ze swoich codziennych osiągnięć.

Opis stanowiska

Szukamy Lidera Analityki Danych z doświadczeniem w rozwijaniu wydajnych, skalowalnych aplikacji klasy korporacyjnej. Dołączysz do utalentowanego zespołu programistów, który zajmuje się aplikacjami krytycznymi dla misji i będziesz odpowiedzialny za nadzorowanie rozwoju aplikacji przez wszystkie etapy cyklu rozwoju oprogramowania - od koncepcji i projektu po testowanie.

Kluczowe obowiązki

  • Ocena nowatorskich technologii i narzędzi oraz ustanawianie standardowych wzorców projektowych i najlepszych praktyk dla zespołu.
  • Tworzenie i wdrażanie klastrów AWS oraz optymalizacja środowiska.
  • Tworzenie i wdrażanie modułowych komponentów pipeline danych, takich jak DAGi Apache Airflow, zadania AWS Glue i crawlery AWS Glue.
  • Tłumaczenie wymagań biznesowych lub funkcjonalnych na wykonalne specyfikacje techniczne do budowy.
  • Współpraca z innymi zespołami technologicznymi w celu wyodrębniania, przekształcania i ładowania danych z różnych źródeł danych.
  • Bliska współpraca z zespołami produktowymi w celu dostarczania produktów danych w środowisku współpracy i agile.
  • Prowadzenie analiz danych i działań związanych z ich wdrażaniem, gdy nowe źródła danych są zintegrowane z platformą.
  • Zastosowanie technik modelowania danych w celu efektywnego przechowywania i odzyskiwania danych dla konsumentów danych.
  • Zarządzanie wieloma projektami związanymi z budowaniem wymagań AWS.
  • Wkład w proces zarządzania zmianami.

Wymagane umiejętności

  • Biegłość w przetwarzaniu danych AWS, analizie i usługach magazynowania, takich jak S3, Glue, Athena, Step Function, Lambda itp.
  • Doświadczenie w wyodrębnianiu danych i dostarczaniu ich z różnych baz danych, w tym Snowflake, Redshift, Postgres, RDS.
  • Kompetencje w językach programowania takich jak Python, SQL, YAML i Spark (PySpark).
  • Praktyczne doświadczenie z narzędziami orkiestrowania pipeline, takimi jak Apache Airflow lub podobne.
  • Znajomość usług bezserwerowych AWS, takich jak Fargate, SNS, SQS, Lambda.
  • Doświadczenie z konteneryzowanymi obciążeniami oraz wykorzystanie usług chmurowych, takich jak AWS ECS, ECR i Fargate do skalowania i organizowania obciążeń.
  • Praktyczna wiedza na temat modelowania danych i współpracy z zespoł