Ви будете брати участь у захоплюючих проектах, що охоплюють весь життєвий цикл даних - від інтеграції необроблених даних з основними та сторонніми системами, крізь передове моделювання даних, до сучасної візуалізації даних та розробки інноваційних продуктів на основі даних.
У вас буде можливість навчитись будувати та працювати з потоками обробки даних у режимі пакетної та реального часу. Ви будете працювати в сучасному хмарному середовищі даних разом з командою різноманітних, інтенсивних та цікавих колег. Ви будете співпрацювати з іншими відділами - такими як продукт & технології, основні бізнес вертикалі, довіра & безпека, фінанси та інші - щоб допомогти їм досягти успіху.
Ваші обов'язки
- Планувати, впроваджувати та підтримувати склади даних;
- Інтеграція сирих даних з основними та сторонніми системами
- Моделювання даних для оперативних та програмних шарів даних
- Розробка в межах кластеру Amazon Redshift
- Розробка SQL у рамках потокової роботи агільної команди
- Розробка ETL та впровадження у Matillion ETL
- Реальні потоки даних та застосування за допомогою безсерверних та керованих служб AWS, таких як Lambda, Kinesis, API Gateway, і так далі.
- Проектування та реалізація даних продуктів, що дозволяють реалізовувати функції або бізнес-рішення, засновані на даних
- Будування інформаційних панелей даних та передових візуалізацій у Sisense для команд хмарних даних (раніше відомих як дані Periscope) з акцентом на UX, простоту та користування
- Співпраця з іншими відділами по продуктах на основі даних - такими як продукт & технологія, маркетинг & рост, фінанси, основний бізнес, реклама та інші
- Стати частиною та внести свій вклад у сильну командну культуру та бажання бути на передовій великих даних
- Оцінка та покращення якості даних через впровадження тестових випадків, сповіщень та гарантій якості даних
- Дотримання командних цінностей: Простіше. Краще. Швидше.
- Сильне бажання вчитись
Необхідний мінімальний досвід (обов'язково)
- 1-2 роки досвіду в обробці даних, аналізі та розв'язанні проблем з великими обсягами даних;
- Гарні навички SQL в різних технологіях реляційного хмарного складу даних (наприклад, Amazon Redshift, Google BigQuery, Snowflake, Vertica, і так далі.)
- Мінімум 1 рік досвіду з однією або декількома мовами програмування, бажано Python
- Здатність пояснити інформацію та висновки для не-технічної аудиторії
- Письмовий та усний професійний рівень англійської мови
- Підприємницький склад розуму та креативне мислення; високий рівень автомотивації; сильна цікавість та постійне бажання вчитися
- Вища технічна освіта у сфері комп'ютерних наук, інженерії, математики, фізики тощо.
Додатковий досвід (великим плюсом буде)
- Досвід роботи з даними, орієнтованими на клієнтів, великого масштабу, бажано в середовищі онлайн / електронної комерції
- Досвід роботи з сучасними інструментами ETL великого масштабу (наприклад, Matillion)
- Досвід роботи з екосистемою даних AWS (або інших хмарних провайдерів)
- Підтверджений досвід роботи в сфері бізнес-інтелекту, впровадження та масштабування складів даних, та моделювання даних
- Маркування, відстеження та звітність за допомогою Google Analytics 360
- Знання сучасних реальних потоків даних (наприклад, serverless framework, lambda, kinesis, і т.д.)
- Досвід роботи з сучасними платформами візуалізації даних, такими як Periscope, Looker, Tableau, Google Data Studio, і т.д.
- Знання Linux, bash scripting, Javascript, HTML, XML
- Досвід роботи з Docker Containers та Kubernetes
#LI-TM1