Data Engineer, Fulfillment team (part time)

Job expired!

Описание компании

Tesco - ведущий международный ритейлер с более чем 336,000 сотрудников. Наши программные решения используются миллионами ежедневно по всему миру. От касс и веб-сайтов до внутренних систем — вы поможете обеспечить их бесперебойную работу. При возникновении бизнес-проблем, вы будете работать вместе с талантливой командой для поиска инновационных решений.

Почему стоит присоединиться к Tesco?

В рамках нашего Tech Hub, сотрудничая с командами в Великобритании, Польше, Чехии, Венгрии и Индии, наши сотрудники наслаждаются:

  • Разработкой собственных продуктов
  • Влиянием на большой масштаб
  • Доверием и уважением
  • Сотрудничеством и поддерживающей средой
  • Работой в небольших, высококвалифицированных командах
  • Непрерывными возможностями обучения и развития

Описание работы: Инженер данных в команде Fulfillment

Департамент Data Engineering в Tesco Technology возглавляет обработку данных в розничной торговле и IT-индустрии. Мы занимаемся:

  • Анализом данных заказов и доставки для оптимизации логистики и эффективности
  • Управлением данными о заказах потребителей, поставках и продуктах для обеспечения бесперебойной работы
  • Сохранением целостности и безопасности данных во время обработки

Мы расширяемся и активно ищем опытного инженера данных для присоединения к нашей аналитической команде. Вы будете отвечать за улучшение нашей архитектуры данных и пайплайнов, оптимизацию потоков данных и обеспечение выполнения требований межфункциональных команд.

Если вы любите создавать и оптимизировать системы данных с нуля, эта роль идеально подходит для вас. Вы будете тесно сотрудничать с разработчиками программного обеспечения, архитекторами баз данных, аналитиками данных и учеными данными над инициативами, основанными на данных, обеспечивая постоянную архитектуру доставки данных во всех проектах. Самостоятельность и способность поддерживать требования к данным для нескольких команд, систем и продуктов крайне важны в этой роли.

Ключевые обязанности

  • Создание и поддержание оптимальной архитектуры пайплайн данных
  • Сбор крупных, сложных наборов данных для удовлетворения бизнес-требований
  • Автоматизация ручных процессов и оптимизация доставки данных
  • Построение инфраструктуры для извлечения, трансформации и загрузки данных (ETL)
  • Разработка аналитических инструментов для получения действенных бизнес-инсайтов
  • Поддержка потребностей в инфраструктуре данных для различных команд
  • Соблюдение разделения и безопасности данных
  • Сотрудничество с экспертами по данным и аналитике для улучшения функциональности системы

Квалификации

Обязательные навыки:

  • Обработка данных: Apache Spark - Scala или Python
  • Хранилище данных: Apache HDFS или соответствующий облачный аналог
  • Менеджер ресурсов: Apache Yarn или соответствующий облачный аналог
  • Lakehouse: Apache Hive/Kyuubi или аналог
  • Планировщик задач: Airflow или аналог

Приветствуются навыки:

  • Функциональное программирование
  • Apache Kafka
  • Kubernetes
  • Обработка потоков данных
  • CI/CD

Дополнительная информация

Гибкость: Мы предлагаем работу на неполный рабочий день (около 120 часов в месяц и более). Поделитесь с нами вашими предпочтительными рабочими часами.

Гибридный режим работы: Мы работаем по гибридной модели: 2 дня