Вы будете участвовать в захватывающих проектах, охватывающих весь жизненный цикл данных - от интеграции сырых данных с основными и сторонними системами, до передового моделирования данных, передовых визуализаций данных и разработки инновационной продукции, основанной на данных.
У вас будет возможность научиться создавать и эксплуатировать как пакетные, так и реальные потоки на pipeline. Вы будете работать в современной облачной среде складов данных вместе с командой разнообразных, страстных и увлекательных коллег. Вы будете координировать работу с другими отделами - такими как продукт и технологии, основные бизнес-подразделения, финансы и другие - чтобы обеспечить их успех.
Ваши обязанности
- Проектирование, внедрение и поддержка складов данных;
- Интеграция сырых данных с основными и сторонними системами
- Моделирование в складах данных для операционных и прикладных слоев данных
- Разработка в кластере Amazon Redshift
- Разработка SQL в рамках гибкого рабочего процесса команды
- Разработка и реализация ETL в Matillion ETL
- Реальные программы и приложения для обработки данных при помощи серверных и управляемых услуг AWS, таких как Lambda, Kinesis, API Gateway и проч.
- Разработка и реализация продуктов данных, способствующих использованию данных для бизнес-решений
- Создание инструментов мониторинга данных и передовых визуализаций в Sisense для команд облачных данных (ранее Periscope Data) с акцентом на UX, простоту и удобство в использовании
- Работа с другими отделами по продуктам данных - т.е. продукт & технологии, маркетинг & рост, финансы, основной бизнес, реклама и другие
- Участие и внесение вклада в сильную командную культуру с амбицией быть на передовой больших данных
- Оценка и улучшение качества данных путем реализации тестовых случаев, сигналов и защиты качества данных
- Соблюдение принципов команды: "Проще. Лучше. Быстрее."
- Сильное желание учиться
Требуемый минимальный опыт (необходим)
- 3 - 5 лет опыта в обработке данных, анализе и решении проблем с большими объемами данных;
- Сильные навыки SQL на различных технологиях хранения данных, особенно в облачных складах данных (например, Amazon Redshift, Google BigQuery, Snowflake, Vertica, и т.п.)
- 3+ года опыта работы с одним или несколькими языками программирования, в частности Python
- Умение сообщать инсайты и результаты анализа непрофессиональной аудитории
- Письменное и устное владение английским
- Предпринимательский дух и способность творчески мыслить; независимость и целеустремленность; стремление к континуальному обучению
- Окончание университета с высшими оценками по техническому направлению, такому как информатика, инжиниринг, математика, физика.
Дополнительный опыт (большое преимущество)
- Опыт работы с ориентированными на клиента данными в масштабе больших данных, предпочтительно в контексте онлайн-торговли/электронной коммерции
- Опыт работы с современными инструментами ETL для больших данных (например, Matillion)
- Опыт работы с эко-системой данных AWS (или других облачных провайдеров)
- Опыт работы с бизнес-интеллектуальными решениями, построением и масштабированием складов данных, моделированием данных
- Теггирование, отслеживание и отчетность с использованием Google Analytics 360
- Знание современных решений реального времени на pipeline (например, серверный фреймворк, lambda, kinesis и т.п.)
- Опыт работы с современными платформами визуализации данных, такими как Periscope, Looker, Tableau, Google Data Studio, и т.п.
- Linux, bash scripting, Javascript, HTML, XML
- Docker Containers и Kubernetes
#LI-TM1