Będziesz uczestniczyć w ekscytujących projektach obejmujących cały cykl życia danych - od integracji surowych danych z systemami głównymi i zewnętrznymi, poprzez zaawansowane modelowanie danych, aż po najnowocześniejszą wizualizację danych i rozwój innowacyjnych produktów opartych na danych.
Będziesz mieć okazję nauczyć się, jak budować i pracować z potokami przetwarzania danych zarówno wsadowych, jak i w czasie rzeczywistym. Będziesz pracować w nowoczesnym chmurowym środowisku magazynowym wraz z zespołem różnorodnych, intensywnych i interesujących współpracowników. Będziesz współpracować z innymi działami - takimi jak produkt i technologia, podstawowe piony biznesowe, zaufanie i bezpieczeństwo, finanse i inne - aby umożliwić im osiągnięcie sukcesu.
Twoje obowiązki
- Projekty, implementacja i wsparcie magazynowania danych;
- Integracja surowych danych z systemami głównymi i zewnętrznymi
- Modelowanie magazynu danych dla warstw danych operacyjnych i aplikacyjnych
- Rozwój w ramach klastra Amazon Redshift
- Rozwój SQL jako część zwinnej pracy zespołowej
- Projekt i implementacja ETL w Matillion ETL
- Przetwarzanie danych w czasie rzeczywistym i aplikacje korzystające z serwerowych i zarządzanych usług AWS, takich jak Lambda, Kinesis, API Gateway itd.
- Projektowanie i implementacja produktów danych umożliwiających funkcje oparte na danych lub rozwiązania biznesowe
- Budowanie tablic danych i zaawansowanej wizualizacji w Sisense dla zespołów danych w chmurze (wcześniej znane jako Periscope Data) z naciskiem na UX, prostotę i użyteczność
- Współpraca z innymi działami nad produktami danych - takimi jak produkt i technologia, marketing i wzrost, finanse, podstawowy biznes, reklama i inne
- Bycie częścią i przyczynianie się do silnej kultury zespołowej i ambicji bycia na czele big data
- Ocena i poprawa jakości danych poprzez wdrażanie przypadków testowych, alertów i zabezpieczeń jakości danych
- Utrzymanie wartości zespołu: Prościej. Lepiej. Szybciej.
- Mocne pragnienie nauki
Wymagane minimum doświadczenia (obowiązkowe)
- 1-2 lata doświadczenia w przetwarzaniu danych, analizie i rozwiązywaniu problemów z dużymi ilościami danych;
- Dobre umiejętności SQL w różnych technologiach magazynowania danych relacyjnych, szczególnie w chmurze (na przykład Amazon Redshift, Google BigQuery, Snowflake, Vertica itd.)
- Co najmniej 1 rok doświadczenia z jednym lub więcej języków programowania, preferowane Python
- Umiejętność komunikowania wniosków i odkryć niefachowemu odbiorcy
- Znajomość angielskiego na poziomie pisemnym i ustnym
- Przedsiębiorczość i kreatywne myślenie; duża samodzielność i motywacja; silna ciekawość i nieustanne pragnienie nauki
- Studia techniczne na najwyższym poziomie uniwersyteckim w dziedzinach takich jak informatyka, inżynieria, matematyka, fizyka itp.
Dodatkowe doświadczenie (duże atuty)
- Doświadczenie w pracy z danymi zorientowanymi na klienta na dużą skalę, preferowane w środowisku online/e-commerce
- Doświadczenie z nowoczesnymi narzędziami ETL big data (na przykład Matillion)
- Doświadczenie z ekosystemem danych AWS (lub innymi dostawcami chmury)
- Udowodnione doświadczenie w rozwiązaniach Business Intelligence, rozwoju i skalowaniu magazynów danych oraz modelowaniu danych
- Tagowanie, śledzenie i raportowanie za pomocą Google Analytics 360
- Znajomość nowoczesnych potoków danych w czasie rzeczywistym (na przykład bezserwerowe, lambda, kinesis itp.)
- Doświadczenie z nowoczesnymi platformami wizualizacji danych takimi jak Periscope, Looker, Tableau, Google Data Studio itd.
- Znajomość Linuxa, skryptowania bash, Javascript, HTML, XML
- Doświadczenie z Docker Containers i Kubernetes
#LI-TM1