Data Engineer (Spark, Scala, Python, Cassandra, Elasticsearch, AWS, Airflow, SQL)

Job expired!

В Nielsen мы глубоко привержены созданию культуры роста, инноваций и партнерства. Присоединяясь к нашей команде из почти 14 000 преданных делу сотрудников, вы войдете в сообщество, созданное для укрепления вашего успеха. Когда вы процветаете, процветаем и мы. Мы предлагаем вам свободу начинать новые проекты, исследовать новые подходы и мыслить амбициозно, что в свою очередь способствует непрерывному улучшению на протяжении всей нашей организации.

Мы ищем талантливого Инженера по данным для тесного сотрудничества с руководителями команд и разработчиками бэкенда в проектировании и разработке надежных пайплайнов для улучшения как внутренних операций, так и обслуживания клиентов. Входя в состав нашей динамичной команды, вы усилите наше будущее своим опытом.

  • Разработка функциональных и надежных пайплайнов для удовлетворения как внутренних потребностей, так и ожиданий клиентов.
  • Написание модульных и интеграционных тестов, разработка инструментов автоматизации и эффективное управление ежедневными задачами.
  • Создание хорошо задокументированного, эффективного кода и оптимизация масштабируемых пайплайнов в облаке.
  • Обеспечение оптимальной производительности и масштабируемости внутренних и внешних приложений.
  • Регулярное взаимодействие с заинтересованными сторонами, менеджерами проектов и командами по обеспечению качества для обсуждения долгосрочных технологических решений и прогресса.
  • Рекомендации системных решений путем оценки преимуществ и недостатков разработки на заказ по сравнению с готовыми альтернативами.

Специализированные знания: более 2 лет опыта в области разработки программного обеспечения/инженерии данных с наличием степени бакалавра в области информатики, MIS или инженерии настоятельно рекомендуется.

Кандидаты должны иметь доказанный опыт в:

  • Разработке программного обеспечения с использованием Java или Scala и знакомстве с технологиями Big Data, такими как Hadoop, Spark и Spark SQL.
  • Использовании облачных сред, предпочтительно AWS, с практическим опытом работы с Docker, RDBMS (Postgres/Oracle), Linux и shell-скриптами.
  • Инструментах оркестрации, таких как Apache Airflow, и глубоких знаниях GitLab, Cassandra, Elasticsearch и спе