Lead Software Engineer - AWS, Java/Python, Spark, Databricks

Job expired!

Odkryj ekscytującą karierę i rozpocznij wymagającą przygodę, w której możesz przekraczać granice technologii. Dołącz do nas jako Główny Inżynier Oprogramowania w zespole Data Platform Engineering - Corporate Technology w JPMorgan Chase.

Jako Główny Inżynier Oprogramowania będziesz kluczowym członkiem zespołu agile, ulepszając, budując i dostarczając wiodące na rynku produkty technologiczne w sposób bezpieczny, stabilny i skalowalny. Jako kluczowy współpracownik techniczny będziesz pracować nad istotnymi rozwiązaniami technologicznymi w różnych domenach technicznych, wspierając cele biznesowe firmy.

Twoje główne obowiązki będą obejmować:

  • Wdrażanie innowacyjnych rozwiązań programistycznych, projektowanie, rozwój i rozwiązywanie problemów technicznych z myśleniem wykraczającym poza konwencjonalne podejścia.
  • Tworzenie bezpiecznego, wysokiej jakości kodu produkcyjnego oraz przeglądanie i debugowanie kodu napisanego przez innych.
  • Identyfikowanie możliwości eliminacji lub automatyzacji naprawy powtarzających się problemów w celu poprawy ogólnej stabilności operacyjnej.
  • Prowadzenie sesji ewaluacyjnych z zewnętrznymi dostawcami, startupami i zespołami wewnętrznymi w celu opracowywania efektywnych projektów architektonicznych.
  • Napędzanie wdrażania i przyjęcia nowych, wiodących technologii w społecznościach Inżynierii Oprogramowania.
  • Wnoszenie wkładu do kultury zespołu opartej na różnorodności, równości, inkluzji i szacunku.

Aby odnieść sukces w tej roli, potrzebujesz:

  • Formalnego szkolenia lub certyfikacji z zakresu koncepcji inżynierii oprogramowania z minimum 5-letnim doświadczeniem w środowisku big data.
  • Praktycznego doświadczenia w projektowaniu systemów, tworzeniu aplikacji, testowaniu i stabilności operacyjnej.
  • Zaawansowanej znajomości języków programowania obiektowego, takich jak Scala, Java, czy Python.
  • Biegłości w budowaniu aplikacji do przetwarzania strumieniowego w czasie rzeczywistym za pomocą narzędzi takich jak Apache Spark Streaming, Apache Kafka, Amazon Kinesis itp., dla przetwarzania danych na dużą skalę.
  • Doświadczenia z otwartymi frameworkami/bibliotekami jak Apache Airflow.
  • Silnych umiejętności w zakresie architektury aplikacji, danych i infrastruktury.
  • Ekspertyzy w architekturze chmurowej, projektowaniu i wdrażaniu we wszystkich systemach.
  • Kompetencji w architekturze opartej na zdarzeniach i konteneryzacji aplikacji.
  • Doświadczenia w tworzeniu aplikacji na platformach Public Cloud (AWS, GCP, Azure), z preferencją dla AWS.
  • Biegłości w korzystaniu z nowych usług chmurowych bezserwerowych, aby zredukować fizyczne/ wirtualne zasoby serwerowe.
  • Zaawansowanego zrozumienia metodyk agile, w tym CI/CD, resyliencji aplikacji i bezpieczeństwa.

Dodatkowe kwalifikacje to:

  • Biegłość w projektowaniu i rozwijaniu pipeline'ów danych za pomocą Databricks Lakehouse.
  • Doświadczenie w re-engineeringu i migracji rozwiązań danych z środowiska on-premises na chmurę publiczną.
  • Umiejętność wdrażania rozwiązań bezpieczeństwa dla przechowywania i przetwarzania danych w chmurze publicznej.
  • Zrozumienie tradycyjnych systemów