Присоединяйтесь к Wrike: ведущей платформе управления работой
Wrike выделяется как лучшая платформа управления работой, разработанная для команд и организаций, которые стремятся к ежедневному сотрудничеству, созиданию и достижениям. С Wrike вы можете централизовать все рабочие процессы, чтобы устранить сложности, повысить продуктивность и позволить вашей команде сосредоточиться на самых важных задачах.
Мы видим мир, в котором каждый может свободно сосредоточиться на своей наиболее значимой работе, вместе.
В Wrike мы сочетаем сложные и увлекательные рабочие процессы. Как быстрорастущая компания, мы предлагаем множество возможностей для профессионального роста. Наша талантливая и энергичная команда, характеризующаяся умом, увлеченностью, дружелюбием и профессионализмом, делает Wrike отличным местом для работы. Если у вас есть эти качества, мы с нетерпением ждем вас в нашей команде.
www.wrike.com
Должность: Опытный инженер данных - GCP/AWS, Python, SQL
Местоположение: Дистанционная/Гибридная работа
Обязанности:
- Управление данными и конвейерами для предоставления действующих аналитических данных по клиентам, продуктам, GTM и ключевым бизнес-функциям.
- Проектирование, разработка и поддержка масштабируемых конвейеров данных и трансформаций из различных инженерных и бизнес-систем (например, Salesforce/CPQ, NetSuite, Marketo).
- Сотрудничество с аналитиками для улучшения моделей данных, питание инструментов бизнес-аналитики, повышение доступности данных и увеличение внедрения BI инструментов.
- Развертывание ML моделей с командами Data Science, соблюдая лучшие практики жизненного цикла ML.
- Внедрение процессов и систем управления качеством данных, обеспечение точности производственных данных и поддержка SLA.
Требования:
- Опыт в создании и поддержке конвейеров данных в среде с большим объемом данных (Data Engineering, Backend, Data Science).
- Большой опыт работы с Python.
- Продвинутые знания SQL и реляционных баз данных.
- 7+ лет опыта работы с решениями Data Warehousing (BigQuery, Redshift, Snowflake, Vertica и др.).
- 7+ лет опыта работы с управлением конвейерами данных (Airflow, Dagster, Prefect и др.).
- Опыт работы с Git, CI/CD и технологиями контейнеризации.
- Опыт работы с Google Cloud Platform, AWS или Azure.
- Знание архитектуры баз данных.
Желаемые навыки:
- Опыт значительной интеграции B2B-вендоров (Salesforce/CPQ, NetSuite, Marketo и др.).
- Глубокое понимание моделирования данных (Kimball, Inmon, SCDs, Data Vault, Anchor).
- Навыки работы с библиотеками данных Python (Pandas, SciPy, NumPy, Sci-Kit Learn, TF, PyTorch).
- Опыт работы с инструментами обеспечения качества данных, мониторинга и оповещения.
- Опыт в корпоративном управлении данными, управлении мастер-данными, конфиденциальностью данных и безопасностью (GDPR, CCPA).
- Знакомство с технологиями потоковой передачи данных и CDC (Google Pub/Sub, Google DataFlow, Apache Kafka, Kafka Streams, Apache Flink, Spark Streaming и др.).
- Опыт создания аналитических решений в среде B2B SaaS.
- Опыт сотрудничества с командами по маркетингу, продажам и успеху клиентов.
Межличностные навыки: