Senior Data Engineer

Job expired!

Dołącz do naszego zespołu jako starszy inżynier danych w Provectus

Przegląd firmy: W Provectus z niecierpliwością oferujemy wyjątkową możliwość dla utalentowanego i doświadczonego starszego inżyniera danych, aby stał się częścią naszego innowacyjnego i dynamicznego zespołu. Specjalizując się w takich obszarach jak Dane, Machine Learning, DevOps, Rozwój Aplikacji i Kontrola Jakości, Provectus jest zaangażowany w przesuwanie granic technologii i innowacji.

Opis stanowiska: Jako starszy inżynier danych w Provectus będziesz grał kluczową rolę w radzeniu sobie z różnymi wyzwaniami technicznymi, współpracując z naszym multidyscyplinarnym zespołem inżynierów danych, inżynierów uczenia maszynowego i programistów aplikacji. To stanowisko oferuje szansę na wkład w ekscytujące projekty open source takie jak ODD i UI for Kafka, rozwijanie wewnętrznych rozwiązań oraz udział w przełomowych działaniach badawczo-rozwojowych. Zanurz się w środowisku, które sprzyja rozwojowi zawodowemu i pozwala wykorzystać Twoje doświadczenie, aby wywrzeć znaczący wpływ.

Kluczowe obowiązki:

  • Ścisła współpraca z klientami w celu zrozumienia ich środowisk IT, wymagań biznesowych i celów transformacji cyfrowej.
  • Zbieranie, zarządzanie i analiza dużych i zróżnicowanych zestawów danych.
  • Współpraca z Data Scientists i inżynierami ML w celu opracowania solidnych przepływów danych dla produktów danych.
  • Zaprojektowanie i wdrożenie skutecznych modeli danych integrujących różne źródła danych w organizacji.
  • Tworzenie, utrzymanie i optymalizacja przepływów pracy ETL.
  • Projektowanie, testowanie i ciągłe ulepszanie rozwiązań opartych na danych.

Wymagania:

  • 5+ lat doświadczenia w inżynierii danych.
  • Znajomość wielu rozwiązań Cloud (preferowane AWS; GCP i Azure wartościowe).
  • Znajomość Platform Danych Cloud takich jak Snowflake i Databricks.
  • Umiejętności w technologiach Infrastruktury jako Kod (IaC), w tym Terraform lub AWS CloudFormation.
  • Zdolność zarządzania przepływami danych w czasie rzeczywistym i wsadowych z użyciem narzędzi takich jak Airflow, Kafka i Spark.
  • Doświadczenie z językami programowania niezbędnymi dla inżynierii danych, takimi jak Python i SQL.
  • Zdolność do budowania skalowalnych API i aplikacji wykorzystujących generatywną sztuczną inteligencję.
  • Głębokie zrozumienie Zarządzania Danymi obejmującego Jakość, Bezpieczeństwo i Optymalizację Kosztów.
  • Zaawansowana lub płynna znajomość języka angielskiego.
  • Silne zdolności rozwiązywania problemów i talent do współpracy w szybkim tempie.

Co warto mieć:

  • Certyfikaty AWS, GCP, Azure lub Databricks.
  • Doświadczenie z narzędziami BI takimi jak Power BI, QuickSight czy Tableau