Big Data Engineer (Analytics)

Job expired!
Big Data Engineer (Analytics) Job Opportunity at Avaloq

Опис компанії

Заснована і розташована в Швейцарії, Avaloq швидко розширює свій глобальний вплив. З приблизно 2 500 співробітниками в 12 країнах і більш ніж 160 клієнтами в 35 країнах, ми є світовим лідером у сфері технологій та послуг з управління капіталом. Ми обслуговуємо фінансові установи по всьому світу, включаючи приватні банки, управлінців капіталом, інвестиційних керівників, а також роздрібні та нео-банки. Наш підхід, який ґрунтується на дослідженнях, та невпинна інноваційність зумовлені пристрастю і творчістю наших співробітників.

Ми завжди шукаємо талантливих людей для приєднання до нас у створенні фінансової екосистеми та демократизації доступу до управління капіталом. Avaloq пропонує унікальну можливість співпрацювати з провідними фінансовими установами світу, дозволяючи вам формувати і розвивати свою кар'єру. В нашому підтримуючому та гнучкому робочому середовищі наші колеги мають можливість досягати свого максимального потенціалу.

Ми команда домену аналітики, яка допомагає фінансовим установам легко приймати, використовувати і аналізувати дані з наших продуктів Avaloq у різноманітній екосистемі. Ми пріоритезуємо наших колег, вважаємо інакше мислення активом і ставимо досвід клієнтів в центр нашого мислення з розробки. Приєднуйтеся до нас, щоб керувати взаємодіями та співпрацею з існуючими і потенційними клієнтами завдяки вашим бізнес-знанням та технічній експертизі.

  • Тісно співпрацюйте з власниками продуктів, бізнес-аналітиками та програмними інженерами у всьому світі.
  • Втілюйте пайплайни даних та аналітику даних - розвідування великих даних, витяг, обробка та інтеграція у різні системи зберігання SQL та NonSQL.
  • Проєктуйте, розробляйте та підтримуйте нові та існуючі рішення у відповідальності команди.
  • Покращуйте та оптимізуйте існуючі функціональні можливості.
  • Розробляйте та підтримуйте автоматизовані тести.
  • Беріть відповідальність за свою область експертизи.
  • Забезпечуйте високоякісну доставку та ефективну комунікацію.
  • Університетський ступінь в галузі комп'ютерних наук, фізики, інженерії, математики або порівняної галузі.
  • Щонайменше 2-3 роки досвіду роботи у фінтех або фінансовому секторі.
  • Практичний досвід впровадження платформ контейнерів, бажано OpenShift/Kubernetes.
  • Знання технологій потокової передачі, таких як Kafka, Kafka Connect.
  • Аналітичні, розв'язувальні та концептуальні навички.
  • Компетенція у одній або більше мовах програмування та скриптингу.
  • Вільне володіння усною та письмовою англійською мовою.
  • Досвід у продуктивних середовищах Big Data/ Data Analytics з використанням таких технологій, як розподілені SQL-рушії/ файлові системи.
  • Досвід обробки потоків,