Ми шукаємо мотивованих осіб, щоб приєднатися до нашої елітної команди інженерів з даних. Будьте частиною створення наступного покоління продуктів і можливостей з даними в Capital One. Зануртесь у роль, котра сприяє інноваціям та співпраці.
- Розробляти та автоматизувати фреймворки для пайплайнів даних для обробки великих обсягів даних та обробки даних у реальному часі на наших платформах Hadoop та потокової передачі даних.
- Створювати API для даних і служби доставки, які підтримують критично важливі операційні та аналітичні застосування для внутрішніх бізнес-операцій, клієнтів та партнерів.
- Перетворювати складні аналітичні моделі на масштабовані, готові до виробництва рішення.
- Постійно інтегрувати та розгортати код на наших внутрішніх та хмарних виробничих середовищах.
- Розробляти застосунки з нуля, використовуючи сучасні технологічні стеки, такі як Scala, Spark, Postgres, Angular JS та NoSQL.
- Співпрацювати з власниками продуктів та клієнтами для надання впливових продуктів з даними в агільному середовищі.
- Ступінь магістра
- Понад 6 років досвіду в розробці застосунків з використанням мов програмування, таких як Python, SQL, Scala або Java.
- Понад 4 роки досвіду роботи з технологіями великих даних.
- Понад 4 роки досвіду роботи з публічними хмарними платформами, такими як AWS, Microsoft Azure або Google Cloud.
- Володіння інструментами розподіленої обробки даних, такими як MapReduce, Hadoop, Hive, EMR, Kafka, Spark, Gurobi або MySQL.
- Досвід роботи з даними в реальному часі та потоковими застосунками.
- Понад 4 роки досвіду роботи з реалізаціями NoSQL, такими як MongoDB або Cassandra.
- Досвід роботи зі складами даних, наприклад, Redshift або Snowflake.
- Володіння UNIX/Linux