Big Data Engineer (PySpark)

Job expired!

Приєднуйтесь до Capgemini як Інженер з великих даних (PySpark)

Ролі та обов'язки:

  • Проектування та розробка проектів обробки даних за допомогою Spark Scala та PySpark.
  • Впровадження надійних модульних тестів для перетворень даних та допоміжних методів.
  • Використання Spark і Spark SQL для ефективного управління даними та аналітики в Hive за допомогою Scala API.
  • Співпраця з бізнес-аналітиками для перевірки результатів тестів і досягнення завершення проекту.
  • Документування проектних і оперативних процедур для керівництва майбутніми процесами та реалізаціями.
  • Забезпечення високої якості поставок через ретельні одноліткові перегляди коду та дотримання стандартів якості.
  • Участь в колаборативних середовищах кодування, в тому числі спарене програмування.
  • Внесок у командні зусилля, створюючи код високої якості, який можна підтримувати.

Кваліфікація та вимоги:

  • Доведений досвід роботи від 4 до 10 років як Інженер з даних Hadoop.
  • Демонстраційна експертиза у екосистемах Hadoop, таких як Spark, Scala, PySpark, Python, Hive та Impala.
  • Вміння користуватися додатковими інструментами, такими як Oracle, Spark Streaming, Kafka та основними концепціями машинного навчання.
  • Володіння практиками Agile, безперервною інтеграцією та розгортанням (CI/CD), а також інструментами, такими як Git, Jenkins та Cloudera Distribution.
  • Ґрунтовне розуміння маніпуляцій зі структурою даних, розподіленими системами, розробкою додатків та автоматизацією.
  • Попередній досвід у сфері основного банківського обслуговування або фінансів вважається великою перевагою.
  • Досвід роботи з хмарними обчисленнями, особливо з AWS, буде вважатися сильним активом.

Розпочніть захопливий кар'єрний шлях в Capgemini, використовуючи свої знання у галузі