Rapsodo Inc. to firma zajmująca się analizą danych sportowych, która wykorzystuje uczenie maszynowe i komputerowe rozpoznawanie wzorów, by pomagać sportowcom w maksymalizacji ich wyników. Nasze wyłączne aplikacje technologiczne obejmują pomoc golfistom z PGA Tour w optymalizacji warunków startowych aż po umożliwienie miotaczom MLB poprawy efektywności ich rzutów. Naszymi obecnymi partnerami są wszystkie 30 zespołów MLB, MLB, USA Baseball, Golf Digest, PGA of America oraz ponad 1000 działów sportowych NCAA.
Jesteśmy innowacyjni, skupieni i szybko rozwijamy się. Nieustannie poszukujemy wysoce zmotywowanych członków zespołu, którzy niczym nie zrażeni dostarczą najnowocześniejsze rozwiązania jako część Team Rapsodo.
Wymagania
Obowiązki:
- Kierowanie projektowaniem, rozwijaniem i utrzymaniem naszej rozbudowanej architektury magazynu danych, włączając Google BigQuery, Kafka, GCP Pub/Sub oraz inne istotne technologie.
- Ścisła współpraca z jednostkami biznesowymi w celu zebrania wymagań i przekształcenia ich w skuteczne i skalowalne rozwiązania danych.
- Rozwijanie i usprawnianie procesów ETL, aby ekstrahować, transformować i ładować dane z różnych źródeł do naszego magazynu danych, zapewniając jakość i dokładność danych.
- Ustanawianie i zarządzanie strumieniami danych w czasie rzeczywistym przy użyciu Kafka i GCP Pub/Sub dla szybkiego przyswajania i przetwarzania danych.
- Współpraca z naukowcami i analitykami danych, aby dostarczyć im czyste, uporządkowane dane do analiz i celów raportowania.
- Projektowanie i wdrażanie strategii zarządzania danymi, aby zapewnić bezpieczeństwo danych, zgodność i prywatność.
- Monitorowanie i rozwiązywanie problemów z danymi, identyfikowanie i rozwiązywanie problemów z wydajnością i jakością danych.
- Bycie na bieżąco z najnowszymi technologiami i trendami w inżynierii danych, proponując innowacyjne rozwiązania w celu poprawy naszej infrastruktury danych.
Kwalifikacje:
- Tytuł licencjata lub wyższy z dziedziny informatyki, inżynierii danych lub pokrewnej.
- Znaczne doświadczenie jako inżynier danych, specjalizujący się w Google BigQuery, Kafka, GCP Pub/Sub i pokrewnych technologiach.
- Głęboka wiedza na temat architektury magazynu danych, procesów ETL i metod integracji danych.
- Biegłość w SQL i doświadczenie w optymalizacji złożonych zapytań pod kątem wydajności.
- Solidne zrozumienie architektury sterowanej zdarzeniami i przesyłania danych w czasie rzeczywistym za pomocą Kafka i GCP Pub/Sub.
- Znajomość rozwiązań opartych na chmurze, szczególnie Google Cloud Platform (GCP).
- Doświadczenie w projektowaniu i implementacji środków zarządzania danymi i bezpieczeństwa.
- Silne zdolności do rozwiązywania problemów i zdolność do rozwiązywania skomplikowanych problemów z danymi.
- Doskonałe umiejętności komunikacyjne, aby skutecznie współpracować ze specjalistami technicznymi i nietechnicznymi.
- Doświadczenie przywódcze lub zdolność do prowadzenia młodszych członków zespołu będzie plusem.
- Relewantne certyfikacje z GCP, Google BigQuery i Kafka są bardzo pożądane.
Jeśli uważasz, że masz to co potrzebne i jesteś chętny do pracy samodzielnie, jak również do współpracy w innowacyjnym, pełnym pasji i ambitnym środowisku, aplikuj już teraz!