Інженер-програміст, бекенд обробки даних

  • Full Time
Job expired!
Про Appier Appier - це компанія, що надає послуги програмного забезпечення як сервісу (Software-as-a-Service, SaaS), яка використовує штучний інтелект (AI) для сприяння прийняттю бізнес-рішень. Заснована в 2012 році з метою зробити AI доступним для всіх, місія Appier - перетворити AI в прибуток за рахунок підвищення інтелекту програмного забезпечення. Зараз у Appier 17 офісів у регіоні Азія-Тихий океан, в Європі та США, і він включений до списку на Токійській фондовій біржі (Номер тікера: 4180). Більше інформації можна знайти на www.appier.com. Про роль Рішення Appier базуються на авторських технологіях глибокого навчання та машинного навчання, які дозволяють кожному бізнесу використовувати AI для перетворення даних у бізнес-інсайти та рішення. В ролі інженера-програміста по роботі з даними ви будете брати участь в розробці ключових компонентів цієї платформи. Обов'язки * Проектувати, розробляти та підтримувати RESTful API за допомогою Python. * Створювати та управляти великими даними за допомогою Trino/Presto та Pinot. * Проектувати та розробляти конвеєри даних за допомогою Apache Airflow та Apache Spark. * Співпрацювати з командами для розробки інструментів автоматизації для щоденних операцій. * Впроваджувати сучасні системи моніторингу та оповіщення для забезпечення оптимальної роботи та стабільності системи. * Відповідати на запити до додатків швидко і ефективно, гарантуючи високий рівень задоволеності клієнтів. * Користуватися хмарними платформами, такими як AWS та GCP, для оптимізації роботи з даними. * Використовувати Kubernetes (k8s) для оркестрації контейнерів і забезпечення ефективного розгортання та масштабування додатків. Про вас [Мінімальні кваліфікаційні вимоги] * Отриманий бакалаврський/магістерський ступінь в галузі комп'ютерних наук. * 3+ років досвіду в побудові та управлінні великими розподіленими системами або застосунками. * Досвід роботи з Kubernetes, Linux / Unix. * Досвід управління даними великого обсягу або сховищем даних. * Поглиблені знання в розробці структур даних та алгоритмів на платформах Big Data. * Здатність працювати самостійно і ефективно в динамічному середовищі. * Здатність працювати в інтенсивному режимі, виконуючи безліч завдань і проектів. * Прагнення мати значний вплив на світ через самоосвіту та втілення ідей в життя. [Бажані кваліфікаційні вимоги] * Внесок у розробку відкритих проектів - значна перевага (вкажіть своє посилання на Github). * Досвід роботи з Python, Scala / Java вважається привілеєм. * Досвід роботи з Hadoop, Hive, Flink, Presto/Trino та пов'язаними з ними системами великих даних є бажаним. * Досвід роботи з публічними хмарними службами, такими як AWS або GCP, є перевагою.