Snowflake Data Architect

Job expired!

W Unify Consulting wyróżniamy się z tłumu i wierzymy, że Ty również. Jesteśmy zbiorowiskiem pasjonatów, ciekawskich osobowości i doświadczonych konsultantów, zaangażowanych w uwolnienie potencjału i dostarczanie doskonałości. Łączymy odważnych liderów, aby tworzyć pozytywny wpływ na świat. Zapraszamy innowacyjnych współtwórców, budowniczych społeczności i mówiących prawdę, aby dołączyli do naszej misji.

Aktywnie poszukujemy wykwalifikowanego Architekta Danych/Inżyniera Danych do naszego dynamicznego zespołu. Rola ta obejmuje projektowanie i wdrażanie solidnych rozwiązań danych, które generują znaczącą wartość dla naszych klientów. Odpowiednia osoba będzie współpracować z zespołami wielofunkcyjnymi w celu definiowania strategii danych, projektowania skalowalnych systemów danych oraz utrzymania integralności, bezpieczeństwa i optymalnej wydajności zasobów danych. Twoje kompetencje pozwolą klientom uwolnić pełny potencjał ich danych, umożliwiając strategiczne wglądy i lepsze podejmowanie decyzji.

  • Rozwijać i wdrażać kompleksowe strategie danych.
  • Tworzyć i utrzymywać szczegółowe modele danych oraz projektować wysokowydajne systemy baz danych.
  • Zapewniać bezproblemową integrację danych, utrzymywać jakość danych oraz utrzymywać rygorystyczne bezpieczeństwo danych i zgodność.
  • Współpracować z zespołami wielofunkcyjnymi w celu monitorowania wydajności i rekomendowania usprawnień technologicznych.
  • 8+ lat doświadczenia na stanowiskach inżyniera danych lub inżyniera oprogramowania.
  • Potwierdzone doświadczenie w integracji danych, magazynowaniu danych, modelowaniu danych oraz architekturze platform danych.
  • 3+ lata doświadczenia ze Snowflake. Certyfikacja SnowPro jest bardzo pożądana.
  • Znajomość pracy z dużymi zbiorami danych i technologiami big data, preferowane oparte na chmurze (np. Snowflake, Databricks, Redshift, Azure SQL Data Warehouse, MongoDB, Cosmos).
  • Doświadczenie w diagnozowaniu i komunikowaniu różnych technik modelowania baz danych i architektury w chmurze.
  • Praktyczne doświadczenie z narzędziami i frameworkami ETL/ELT (np. Airflow, DBT, AWS Lambda, Spark, Informatica PowerCenter/ICS, Talend, Fivetran/HVR, Matillion, AWS Glue).
  • Zaawansowana znajomość SQL i Pythona (wymagane). Znajomość PySpark, Scala lub Java jest dodatkowym atutem.
  • Doświadczenie z rozwojem w środowisku Public Cloud, takim jak AWS, Azure lub GCP.
  • Znajomość NoSQL, programowania obiektowego oraz rozproszonych baz danych.
  • Doświadczenie z platformami wizualizacji danych (np. Tableau, Power BI, Looker).
  • Wyśmienite umiejętności komunikacyjne, z zdolnością skutecznego przekazywania informacji technicznych zarówno zespołom technicznym, jak i niete