План 1 (31061), Соединенные Штаты Америки, Плано, Техас
Старший инженер по данным (гибрид)
Мы ищем мотивированных специалистов, которые присоединятся к нашей команде энтузиастов-инженеров данных для разработки следующего поколения продуктов и возможностей Capital One на основе данных.
- Вы будете создавать фреймворки для автоматизации большого объема и передачи данных в режиме реального времени для нашего Hadoop и потокового хаба данных.
- Вы будете создавать API для данных и услуги по доставке данных, которые поддерживают критически важные операционные и аналитические приложения для наших внутренних деловых операций, клиентов и партнеров.
- Вы будете преобразовывать сложные аналитические модели в масштабируемые, готовые к производству решения.
- Вы будете постоянно интегрировать и передавать код в наши производственные среды на месте и в облаке.
- Вы будете разрабатывать приложения с нуля, используя современный технологический стек, такой как Scala, Spark, Postgres, Angular JS и NoSQL.
- Вы будете напрямую работать с владельцами продуктов и клиентами для доставки продуктов данных в сотрудничестве и гибкой среде.
Обязанности
- Разработка устойчивых решений на основе данных с использованием современных технологий обработки данных для удовлетворения потребностей нашей организации и коммерческих клиентов.
- Быстрое освоение новых технологий по мере необходимости для продвижения различных инициатив.
- Разбивка сложных данных и их решение.
- Создание надежных систем с акцентом на долгосрочное обслуживание и поддержку приложения.
- Обмен знаниями в более широком контексте.
- Понимание сложных многоуровневых, многоплатформенных систем.
Основные требования:
- Бакалаврское образование
- Как минимум 4 года опыта в разработке приложений (опыт стажировки не учитывается)
Предпочтительные квалификации:
- Степень магистра
- 6+ лет опыта в разработке приложений (Python, SQL, Scala или Java)
- 4+ лет опыта работы с технологиями больших данных
- 4+ лет опыта работы с публичными облаками (AWS, Microsoft Azure, Google Cloud)
- 4+ лет опыта работы с инструментами распределенных данных/вычислений (MapReduce, Hadoop, Hive, EMR, Kafka, Spark, Gurobi или MySQL)
- 4+ года опыта работы с данными в реальном времени и потоковыми приложениями
- 4+ лет опыта работы с NoSQL реализацией (Mongo, Cassandra)
- 4+ лет опыта работы с хранилищами данных (Redshift или Snowflake)
- 4+ лет опыта работы с UNIX/Linux, включая базовые команды и скрипты оболочки
- 4+ лет опыта работы с адаптивными инженерными практиками
На данный момент Capital One не будет спонсировать для данной вакансии новых заявителей на получение разрешения на работу.