W Unify Consulting wyróżniamy się z tłumu i wierzymy, że Ty również. Jesteśmy zbiorowiskiem pasjonatów, ciekawskich osobowości i doświadczonych konsultantów, zaangażowanych w uwolnienie potencjału i dostarczanie doskonałości. Łączymy odważnych liderów, aby tworzyć pozytywny wpływ na świat. Zapraszamy innowacyjnych współtwórców, budowniczych społeczności i mówiących prawdę, aby dołączyli do naszej misji.
Aktywnie poszukujemy wykwalifikowanego Architekta Danych/Inżyniera Danych do naszego dynamicznego zespołu. Rola ta obejmuje projektowanie i wdrażanie solidnych rozwiązań danych, które generują znaczącą wartość dla naszych klientów. Odpowiednia osoba będzie współpracować z zespołami wielofunkcyjnymi w celu definiowania strategii danych, projektowania skalowalnych systemów danych oraz utrzymania integralności, bezpieczeństwa i optymalnej wydajności zasobów danych. Twoje kompetencje pozwolą klientom uwolnić pełny potencjał ich danych, umożliwiając strategiczne wglądy i lepsze podejmowanie decyzji.
- Rozwijać i wdrażać kompleksowe strategie danych.
- Tworzyć i utrzymywać szczegółowe modele danych oraz projektować wysokowydajne systemy baz danych.
- Zapewniać bezproblemową integrację danych, utrzymywać jakość danych oraz utrzymywać rygorystyczne bezpieczeństwo danych i zgodność.
- Współpracować z zespołami wielofunkcyjnymi w celu monitorowania wydajności i rekomendowania usprawnień technologicznych.
- 8+ lat doświadczenia na stanowiskach inżyniera danych lub inżyniera oprogramowania.
- Potwierdzone doświadczenie w integracji danych, magazynowaniu danych, modelowaniu danych oraz architekturze platform danych.
- 3+ lata doświadczenia ze Snowflake. Certyfikacja SnowPro jest bardzo pożądana.
- Znajomość pracy z dużymi zbiorami danych i technologiami big data, preferowane oparte na chmurze (np. Snowflake, Databricks, Redshift, Azure SQL Data Warehouse, MongoDB, Cosmos).
- Doświadczenie w diagnozowaniu i komunikowaniu różnych technik modelowania baz danych i architektury w chmurze.
- Praktyczne doświadczenie z narzędziami i frameworkami ETL/ELT (np. Airflow, DBT, AWS Lambda, Spark, Informatica PowerCenter/ICS, Talend, Fivetran/HVR, Matillion, AWS Glue).
- Zaawansowana znajomość SQL i Pythona (wymagane). Znajomość PySpark, Scala lub Java jest dodatkowym atutem.
- Doświadczenie z rozwojem w środowisku Public Cloud, takim jak AWS, Azure lub GCP.
- Znajomość NoSQL, programowania obiektowego oraz rozproszonych baz danych.
- Doświadczenie z platformami wizualizacji danych (np. Tableau, Power BI, Looker).
- Wyśmienite umiejętności komunikacyjne, z zdolnością skutecznego przekazywania informacji technicznych zarówno zespołom technicznym, jak i niete