Dołącz do HARMAN, gdzie nasi inżynierowie i projektanci są znani ze swojej kreatywności, celowości i zwinności. Jako członek naszego innowacyjnego zespołu, połączysz swoje techniczne umiejętności z twórczymi pomysłami, aby opracowywać nowatorskie rozwiązania w sektorach motoryzacyjnym, korporacyjnym i połączonym ekosystemie. W HARMAN dajemy Ci możliwości korzystania z najnowszych technologii, mnóstwo możliwości i rozległe zasoby do budowania udanej kariery.
Dlaczego wybrać HARMAN?
Jako szybko rozwijający się lider technologii, HARMAN składa się z osób zaangażowanych w poprawę jakości życia. Nasze wartości kluczowe to innowacyjność, inkluzywność i praca zespołowa. Razem podejmujemy się wyzwań i rozwiązujemy trudne problemy, tworząc środowisko, w którym możesz się rozwijać, wywierać znaczący wpływ i być dumnym ze swoich codziennych osiągnięć.
Opis stanowiska
Szukamy Lidera Analityki Danych z doświadczeniem w rozwijaniu wydajnych, skalowalnych aplikacji klasy korporacyjnej. Dołączysz do utalentowanego zespołu programistów, który zajmuje się aplikacjami krytycznymi dla misji i będziesz odpowiedzialny za nadzorowanie rozwoju aplikacji przez wszystkie etapy cyklu rozwoju oprogramowania - od koncepcji i projektu po testowanie.
Kluczowe obowiązki
- Ocena nowatorskich technologii i narzędzi oraz ustanawianie standardowych wzorców projektowych i najlepszych praktyk dla zespołu.
- Tworzenie i wdrażanie klastrów AWS oraz optymalizacja środowiska.
- Tworzenie i wdrażanie modułowych komponentów pipeline danych, takich jak DAGi Apache Airflow, zadania AWS Glue i crawlery AWS Glue.
- Tłumaczenie wymagań biznesowych lub funkcjonalnych na wykonalne specyfikacje techniczne do budowy.
- Współpraca z innymi zespołami technologicznymi w celu wyodrębniania, przekształcania i ładowania danych z różnych źródeł danych.
- Bliska współpraca z zespołami produktowymi w celu dostarczania produktów danych w środowisku współpracy i agile.
- Prowadzenie analiz danych i działań związanych z ich wdrażaniem, gdy nowe źródła danych są zintegrowane z platformą.
- Zastosowanie technik modelowania danych w celu efektywnego przechowywania i odzyskiwania danych dla konsumentów danych.
- Zarządzanie wieloma projektami związanymi z budowaniem wymagań AWS.
- Wkład w proces zarządzania zmianami.
Wymagane umiejętności
- Biegłość w przetwarzaniu danych AWS, analizie i usługach magazynowania, takich jak S3, Glue, Athena, Step Function, Lambda itp.
- Doświadczenie w wyodrębnianiu danych i dostarczaniu ich z różnych baz danych, w tym Snowflake, Redshift, Postgres, RDS.
- Kompetencje w językach programowania takich jak Python, SQL, YAML i Spark (PySpark).
- Praktyczne doświadczenie z narzędziami orkiestrowania pipeline, takimi jak Apache Airflow lub podobne.
- Znajomość usług bezserwerowych AWS, takich jak Fargate, SNS, SQS, Lambda.
- Doświadczenie z konteneryzowanymi obciążeniami oraz wykorzystanie usług chmurowych, takich jak AWS ECS, ECR i Fargate do skalowania i organizowania obciążeń.
- Praktyczna wiedza na temat modelowania danych i współpracy z zespoł