Mid FullStack - Spark/ PySpark - Big Data

Job expired!

Capco, часть Wipro, является ведущей мировой технологической и управленческой консалтинговой фирмой. Нас отмечали как Консультационную Фирму Года на Британской Банковской Премии, и мы вошли в Топ-100 Лучших Компаний для Женщин в Индии в 2022 году по версии Avtar & Seramount. Имея офисы в 32 городах по всему миру, мы обслуживаем более 100 клиентов в банковской, финансовой и энергетической секторах, сосредоточиваясь на глубоких трансформациях эксплуатации и доставки.

Став разработчиком Java + Hadoop в Capco, вы будете участвовать в ключевых проектах с крупнейшими мировыми банками, страховыми провайдерами и другими ключевыми игроками в секторе финансовых услуг. Эти проекты нацелены на революцию в индустрии, и вы будете на переднем крае, внося свой вклад в инновационное мышление, достижение превосходства в выполнении и лидерство идей, которые помогают трансформировать бизнес наших клиентов.

В Capco, инновируйте и создавайте дисруптивные работы вместе с нашими клиентами и партнерами в индустрии, сосредотачиваясь на изменении секторов энергетики и финансовых услуг к лучшему. Ваша роль разработчика Java + Hadoop поставит вас в центр нашей миссии, используя ваши навыки в области Spark, Scala/Python и Hadoop для оказания долгосрочного влияния.

Мы гордимся открытой и толерантной культурой, которая продвигает разнообразие, инклюзивность и креативность, позволяя каждому сотруднику быть своим настоящим я на работе.

Используйте возможность расти вместе с нами без насильственной иерархии. В Capco карьерный рост находится в ваших руках, под руководством непрерывных возможностей для обучения и меритократической культуры.

Мы признаем, что разнообразный набор голосов и перспектив дает нам конкурентное преимущество на глобальном рынке.

Место Работы: Бангалор
Требуемый Опыт Работы: 4-8 лет
Ключевые Навыки:

  • Базовые знания структур данных, алгоритмов и решения проблем
  • Экспертиза в функциональном программировании: Spark, Scala/Python
  • Владение технологиями Big Data: Hadoop, Spark, Hive
  • Опыт работы с любой СУБД, предпочтительно MySQL

Дополнительное Название Р