Big Data Engineer (PySpark)

Job expired!

Dołącz do Capgemini jako Inżynier Big Data (PySpark)

Role i obowiązki:

  • Projektowanie i rozwijanie projektów przetwarzania danych przy użyciu Spark Scala i PySpark.
  • Implementacja solidnych testów jednostkowych dla transformacji danych i metod pomocniczych.
  • Wykorzystanie Spark i Spark SQL do efektywnego zarządzania danymi i analiz w Hive przy użyciu Scala API.
  • Współpraca z analitykami biznesowymi w celu weryfikacji wyników testów i osiągnięcia akceptacji projektów.
  • Dokumentowanie projektu i procedur operacyjnych w celu przewodnictwa przyszłym procesom i implementacjom.
  • Zapewnienie wysokiej jakości dostaw poprzez dokładne recenzje kodu równoległego i przestrzeganie standardów jakości.
  • Uczestnictwo w wspólnym tworzeniu kodu, w tym programowaniu parami.
  • Przyczynianie się do wysiłków zespołowych poprzez tworzenie kodu wysokiej jakości, który można utrzymać.

Kwalifikacje i wymagania:

  • Udowodnione doświadczenie, od 4 do 10 lat, jako Inżynier Danych Hadoop.
  • Wyraźne umiejętności w ekosystemach Hadoop takich jak Spark, Scala, PySpark, Python, Hive i Impala.
  • Zręczność w dodatkowych narzędziach takich jak Oracle, Spark Streaming, Kafka oraz podstawowych koncepcjach uczenia maszynowego.
  • Opanowanie praktyk Agile, ciągłej integracji i wdrażania (CI/CD) oraz narzędzi takich jak Git, Jenkins i dystrybucja Cloudera.
  • Dokładne zrozumienie manipulacji strukturami danych, systemów rozproszonych, rozwoju aplikacji i automatyzacji.
  • Poprzednie doświadczenie w sektorze bankowości lub finansów będzie miało duże znaczenie.
  • Doświadczenie w chmurze obliczeniowej, szczególnie z AWS, będzie uznane za silny atut.

Rozpocznij ekscytującą ścieżkę kariery w Capgemini, wykorzystując swoją wiedzę na temat Big Data i technologii ekosystemowych do prowadzenia transformatywnych projektów i innowacyjnych rozwiązań. Aplikuj już dziś, aby dołączyć do globalnie szanowanego zespołu jako Inżynier Big Data specjalizujący się w PySpark!