Seasoned Data Engineer - GCP/AWS, Python, SQL

Job expired!

Присоединяйтесь к Wrike: ведущей платформе управления работой

Wrike выделяется как лучшая платформа управления работой, разработанная для команд и организаций, которые стремятся к ежедневному сотрудничеству, созиданию и достижениям. С Wrike вы можете централизовать все рабочие процессы, чтобы устранить сложности, повысить продуктивность и позволить вашей команде сосредоточиться на самых важных задачах.

Мы видим мир, в котором каждый может свободно сосредоточиться на своей наиболее значимой работе, вместе.

В Wrike мы сочетаем сложные и увлекательные рабочие процессы. Как быстрорастущая компания, мы предлагаем множество возможностей для профессионального роста. Наша талантливая и энергичная команда, характеризующаяся умом, увлеченностью, дружелюбием и профессионализмом, делает Wrike отличным местом для работы. Если у вас есть эти качества, мы с нетерпением ждем вас в нашей команде.

www.wrike.com

Должность: Опытный инженер данных - GCP/AWS, Python, SQL

Местоположение: Дистанционная/Гибридная работа

Обязанности:

  • Управление данными и конвейерами для предоставления действующих аналитических данных по клиентам, продуктам, GTM и ключевым бизнес-функциям.
  • Проектирование, разработка и поддержка масштабируемых конвейеров данных и трансформаций из различных инженерных и бизнес-систем (например, Salesforce/CPQ, NetSuite, Marketo).
  • Сотрудничество с аналитиками для улучшения моделей данных, питание инструментов бизнес-аналитики, повышение доступности данных и увеличение внедрения BI инструментов.
  • Развертывание ML моделей с командами Data Science, соблюдая лучшие практики жизненного цикла ML.
  • Внедрение процессов и систем управления качеством данных, обеспечение точности производственных данных и поддержка SLA.

Требования:

  • Опыт в создании и поддержке конвейеров данных в среде с большим объемом данных (Data Engineering, Backend, Data Science).
  • Большой опыт работы с Python.
  • Продвинутые знания SQL и реляционных баз данных.
  • 7+ лет опыта работы с решениями Data Warehousing (BigQuery, Redshift, Snowflake, Vertica и др.).
  • 7+ лет опыта работы с управлением конвейерами данных (Airflow, Dagster, Prefect и др.).
  • Опыт работы с Git, CI/CD и технологиями контейнеризации.
  • Опыт работы с Google Cloud Platform, AWS или Azure.
  • Знание архитектуры баз данных.

Желаемые навыки:

  • Опыт значительной интеграции B2B-вендоров (Salesforce/CPQ, NetSuite, Marketo и др.).
  • Глубокое понимание моделирования данных (Kimball, Inmon, SCDs, Data Vault, Anchor).
  • Навыки работы с библиотеками данных Python (Pandas, SciPy, NumPy, Sci-Kit Learn, TF, PyTorch).
  • Опыт работы с инструментами обеспечения качества данных, мониторинга и оповещения.
  • Опыт в корпоративном управлении данными, управлении мастер-данными, конфиденциальностью данных и безопасностью (GDPR, CCPA).
  • Знакомство с технологиями потоковой передачи данных и CDC (Google Pub/Sub, Google DataFlow, Apache Kafka, Kafka Streams, Apache Flink, Spark Streaming и др.).
  • Опыт создания аналитических решений в среде B2B SaaS.
  • Опыт сотрудничества с командами по маркетингу, продажам и успеху клиентов.

Межличностные навыки: