Data Ops, Data Engineer

Job expired!

Готовы ли вы стать частью революционной торговой платформы, которая меняет способ экономии для потребителей? Fetch ищет увлеченных людей, готовых присоединиться к нашей динамичной команде и помочь нам реализовать наше видение. Узнайте, почему миллионы пользователей оценивают нас среди топ-10 в разделе "Покупки" в App Store и почему Forbes назвал нас одним из лучших стартап-работодателей Америки два года подряд.

Баллы Fetch - это больше, чем просто вознаграждения; это способ сделать экономию денег увлекательной. Независимо от того, сканируете ли вы чеки из продуктового магазина или после посещения драйв-тру, Fetch объединяет бренды и потребителей в уникальном, лояльном, взрывном опыте. Мы - быстрорастущая технологическая компания с культурой, ориентированной на людей, основанной на доверии и ответственности. Мы даем нашим сотрудникам возможность мыслить масштабно, оспаривать идеи и внедрять инновации.

Если вы стремитесь внести свой вклад в компанию, которая ценит креативность и инновации, подайте заявку на присоединение к нашему захватывающему пути сегодня!

Будучи частью нашей команды по работе с данными, инженер данных DataOps сыграет ключевую роль в проектировании и создании масштабируемых и эффективных систем обработки и трансформации данных. Вам предстоит обрабатывать терабайты данных каждый день для поддержки бизнеса Fetch, обеспечивая заинтересованным сторонам обширную доступность и удобство использования данных. Ваша работа в области инженерии данных жизненно важна для успеха Fetch, так как мы стремимся к мировому уровню доступности данных.

  • Разрабатывать инструменты для поддержки быстрого создания продуктов данных и рекомендовать шаблоны для развертывания конвейеров данных.
  • Создавать конвейеры данных для обработки терабайтов данных ежедневно, используя хранилища данных и озера в облаке AWS.
  • Обеспечивать открытие и отслеживание данных, внедряя лучшие практики управления данными, безопасности и соответствия требованиям.
  • Внедрять инновации с наборами данных от миллионов активных пользователей ежедневно и применять лучшие практики моделирования данных.
  • Проектировать системы для обеспечения высокого качества данных на протяжении всего жизненного цикла данных, разрабатывать стандарты качества данных.
  • Сотрудничать с командой DevOps для интеграции потребностей в данных в инструментах DevOps.
  • Пропагандировать культуру сотрудничества, автоматизации и непрерывного улучшения в процессах обработки данных.
  • Оставаться в курсе новых технологий, инструментов и тенденций в области обработки и аналитики данных.
  • Самостоятельный человек, способный довести проект от архитектуры до внедрения.
  • Опыт работы с инструментами Infrastructure as Code, такими как Terraform или CloudFormation для автоматизации развертывания инфраструктуры данных.
  • Знание процессов непрерывной интеграции и развертывания (CI/CD), включая настройку и обслуживание конвейеров для приложений данных.
  • Опыт в процессах разработки программного обеспечения с акцентом на быстрые релизы и постепенное улучшение.
  • Опыт обеспечения качества данных с использованием инструментов и фреймворков для проверки данных, обнаружения аномалий и мониторинга.
  • Знание моделирования данных и инструментов, таких как DBT.
  • Доказанный опыт проектирования и поддержки масштабируемых конвейеров данных, обрабатывающих терабайты данных ежедневно, с использованием фреймворков, таких как Apache Spark, Kafka и Flink.
  • Сильная основа принципов архитектуры данных и новых технологий.
  • Знание, по крайней мере, одного современного языка программирования (Go, Python, Java, Rust) и SQL.
  • Комфортно проводить презентации и обсуждать технические решения на рецензиях.
  • Степень бакалавра или магистра в таких областях, как компьютерные науки, наука о данных или бизнес-аналитика.