Senior Data Engineer

Job expired!

W Synack wykorzystujemy najnowsze technologie, aby wspierać najlepsze talenty w dziedzinie cyberbezpieczeństwa w celu zabezpieczenia naszego cyfrowego krajobrazu. Chronimy wiodące globalne organizacje, zmniejszając ich ryzyko bezpieczeństwa i wzmacniając ich obronę przed zagrożeniami cybernetycznymi. Nasze podejście łączy kontrolowaną platformę z wiedzą najbardziej zaufanych etycznych hakerów, zapewniając niezawodne bezpieczeństwo.

Wspierani przez czołowe firmy venture capital, takie jak Kleiner Perkins Caufield & Byers, Microsoft i Google Ventures, naszą misją jest wykorzystywanie globalnej ekspertyzy w dziedzinie bezpieczeństwa oraz zaawansowanej technologii, aby pomóc przedsiębiorstwom zidentyfikować luki w zabezpieczeniach, zanim staną się one poważnymi problemami. Odkryj swoją przyszłość z Synack!

Szukamy doświadczonego i innowacyjnego Starszego Inżyniera Danych, który wzbogaci naszą hurtownię danych i opracuje najnowocześniejsze produkty przetwarzania danych strumieniowego i wsadowego, które zrewolucjonizują cyberbezpieczeństwo. Wykorzystując chmurę i metodologie DevOps, będziesz przetwarzać dane, aby zwiększyć widoczność działalności naszego Red Teamu i ulepszyć metodę oceny stanu bezpieczeństwa naszych klientów.

Zainteresowany? Czytaj dalej...

  • Utrzymywanie i rozszerzanie hurtowni danych w celu dostarczania wniosków opartych na danych dla różnych interesariuszy.
  • Tworzenie wsadowych potoków danych ETL z wykorzystaniem BigQuery lub równoważnych narzędzi, takich jak Airflow i Puppet.
  • Wykorzystywanie technologii przetwarzania strumieniowego (np. Apache Flink, Kafka, Cloud Functions) do budowy solidnej platformy przetwarzania zdarzeń strumieniowych.
  • Podtrzymywanie i rozwijanie infrastruktury jako kod (opartej na Terraform) dla platformy danych.
  • Wsparcie istniejących produktów produkcyjnych, w tym API, potoków danych, relacyjnych baz danych i sklepów dokumentów NoSQL.
  • Tworzenie modeli danych dla pulpitów nawigacyjnych za pomocą Looker, Tableau lub Superset oraz dla interaktywnych aplikacji osadzonych w interfejsie użytkownika.
  • Opracowywanie innowacyjnych analiz danych i proof-of-concept w celu uzyskania praktycznych wniosków.
  • Współpraca z inżynierami i menedżerami produktu w całej firmie.
  • Wnoszenie wkładu w rozwój zaawansowanej analityki danych, modeli uczenia maszynowego i aplikacji AI dla rzeczywistych problemów.
  • Ponad 8 lat doświadczenia w projektowaniu hurtowni danych, takich jak BigQuery, Redshift, Databricks.
  • Ponad 5 lat doświadczenia w programowaniu w Pythonie, SQL i Java/Scala.
  • Ponad 5 lat doświadczenia w implementowaniu wsadowych potoków danych z wykorzystaniem nowoczesnych technologii, takich jak BigQuery lub Spark.
  • Ponad 3 lata doświadczenia w projektowaniu i budowie rozwiązań danych czasu rzeczywistego z wykorzystaniem Kafka, kSQL, Spark, Flink lub podobnych.
  • Biegłość w różnych systemach baz danych, w tym OLAP/delta lake, relacyjnych bazach danych (PostgreSQL) i sklepach dokumentów NoSQL.
  • Doświadczenie w prowadzeniu działań związanych z tworzeniem aplikacji.
  • Znajomość Google Cloud lub innych publicznych platform chmurowych.
  • Doświadczenie z testami jednostkowymi i integracyjnymi oraz praktykami Agile w rozwoju oprogramowania z użyciem Git.
  • Z