NYC 299 Park Avenue (22957), Сполучені Штати Америки, Нью-Йорк, Нью-Йорк
Головний інженер з даних
Ви захоплюєтесь розробкою в сфері технологій та впровадженням рішень для складних бізнес-викликів у швидкому, співпрацюючому, інклюзивному та ітеративному робочому середовищі? У Capital One ви будете включені в групу створювачів, порушників, виконавців та перебудовників, які вирішують реальні проблеми та задовольняють реальні потреби клієнтів. Ми шукаємо інженерів з даними, які цікавляться комбінацією даних з новітніми технологіями. Як головний інженер з даних у Capital One, у вас буде можливість бути на передньому краї впровадження важливої зміни в межах Capital One.
Що ви будете робити:
- Співпрацюйте в рамках та між Agile командами для проектування, розробки, тестування, впровадження та підтримки технічних рішень, використовуючі інструменти та технології розробки повного стеку.
- Працюйте в команді розробників з широкими знаннями в машинному навчанні, розподілених мікросервісах та системах повного стеку.
- Використовуйте мови програмування, такі як Java, Scala, Python, і використовуйте відкриті RDBMS та бази даних NoSQL та хмарні сервіси зберігання даних, такі як Redshift та Snowflake
- Діліться своїм захопленням за збереженням актуальності з технологічними тенденціями, експериментуванням з та здобуттям нових технологій, участю в внутрішніх та зовнішніх технічних спільнотах, та наставництвом інших членів інженерної спільноти.
- Співпрацюйте з цифровими менеджерами продуктів та надавайте надійні, хмарні рішення, які сприяють потужним досвідам, щоб допомогти мільйонам американців здобути фінансову незалежність.
- Виконуйте модульні тести та проводьте огляди з іншими членами команди, щоб переконатися, що ваш код є добротно спроектованим, елегантної кодованою, та ефективно налаштованим на продуктивність.
Базові вимоги:
- Бакалавр.
- Мінімум 6 років досвіду розробки програм (досвід стажування не враховується).
- Мінімум 2 роки досвіду роботи з технологіями Big Data.
- Мінімум 1 рік досвіду в області хмарних обчислень (AWS, Microsoft Azure, Google Cloud).
Бажані кваліфікації:
- 7+ років досвіду з розробки програм, включаючи Python, SQL, Scala або Java
- 4+ роки досвіду з публічної хмари (AWS, Microsoft Azure, Google Cloud)
- 4+ роки досвіду роботи з розподіленими інструментами обчислення і обробки даних (MapReduce, Hadoop, Hive, EMR, Kafka, Spark, Gurobi або MySQL)
- 4+ рік досвіду роботи з даними в реальному часі та потоковими додатками
- 4+ роки досвіду із впровадженням NoSQL (Mongo, Cassandra)
- 4+ років досвіду роботи з буферами зберігання даних (Redshift або Snowflake)
- 4+ роки досвіду роботи з UNIX/Linux, включаючи базові команди та скрипти оболонки
- 2+ роки досвіду з Agile інженерними практиками.