Software Engineer III - AWS, Spark, AWS, Databricks

Job expired!

В JPMorgan Chase & Co., лидере в области мировых финансов, мы ищем талантливого Инженера-программиста III для проектирования и реализации масштабируемых облачных базовых данных. Эта критически важная роль поддерживает стратегические бизнес-цели, разрабатывая передовые архитектурные и инженерные проекты в нашей инновационной и динамичной ИТ-среде.

В качестве Инженера-программиста III, вы будете:

  • Проектировать и реализовывать облачные решения для данных, которые масштабируемы и устойчивы.
  • Поддерживать детальные знания об облачных сервисах и платформах для продвижения стратегических ИТ-решений.
  • Эффективно сотрудничать с внутренними командами и руководителями бизнеса для формирования требований и создания архитектур целевого состояния.
  • Разрабатывать инженерные стандарты, лучшие практики и процедуры, обеспечивая целостность данных и соответствие требованиям классификации.
  • Использовать ваш опыт в микросервисах, API и современных облачных архитектурах для улучшения интеграции системы и обслуживаемости.
  • Использовать ваш опыт работы с AWS, GCP и Azure, особенно AWS, для проектирования решений как в частных, так и в общедоступных облачных средах.
  • Инновационно использовать бессерверные технологии для сокращения физических и виртуальных серверных мощностей.
  • Создавать приложения для реального времени потоковой передачи данных, используя Apache Kafka, Amazon Kinesis и другие технологии.
  • Степень бакалавра или магистра в области компьютерных наук, программной инженерии или смежной области.
  • Более 6 лет опыта работы в средах больших данных с различными типами и структурами данных.
  • Значительный опыт работы с Java, Scala и открытыми фреймворками, такими как Apache Spark и Apache Airflow.
  • Глубокие знания в разработке и масштабировании приложений с использованием контейнеров и оркестраторов, таких как Kubernetes и Docker.
  • Знание инструментов CI/CD, таких как Jenkins, Git и Jira.
  • Опыт проектирования и разработки цепочек обработки данных с использованием инструментов, таких как Databricks и Snowflake.
  • Навыки миграции данных с локальных решений на облачные платформы.
  • Опыт внедрения решений по безопасности для хранения и обработки данных в облаке.
  • Знакомство с традиционными большими системами данных, такими как Hadoop, Cassandra и Hive.