Про Appier
Appier - це компанія, що надає послуги програмного забезпечення як сервісу (Software-as-a-Service, SaaS), яка використовує штучний інтелект (AI) для сприяння прийняттю бізнес-рішень. Заснована в 2012 році з метою зробити AI доступним для всіх, місія Appier - перетворити AI в прибуток за рахунок підвищення інтелекту програмного забезпечення. Зараз у Appier 17 офісів у регіоні Азія-Тихий океан, в Європі та США, і він включений до списку на Токійській фондовій біржі (Номер тікера: 4180). Більше інформації можна знайти на www.appier.com.
Про роль
Рішення Appier базуються на авторських технологіях глибокого навчання та машинного навчання, які дозволяють кожному бізнесу використовувати AI для перетворення даних у бізнес-інсайти та рішення. В ролі інженера-програміста по роботі з даними ви будете брати участь в розробці ключових компонентів цієї платформи.
Обов'язки
* Проектувати, розробляти та підтримувати RESTful API за допомогою Python.
* Створювати та управляти великими даними за допомогою Trino/Presto та Pinot.
* Проектувати та розробляти конвеєри даних за допомогою Apache Airflow та Apache Spark.
* Співпрацювати з командами для розробки інструментів автоматизації для щоденних операцій.
* Впроваджувати сучасні системи моніторингу та оповіщення для забезпечення оптимальної роботи та стабільності системи.
* Відповідати на запити до додатків швидко і ефективно, гарантуючи високий рівень задоволеності клієнтів.
* Користуватися хмарними платформами, такими як AWS та GCP, для оптимізації роботи з даними.
* Використовувати Kubernetes (k8s) для оркестрації контейнерів і забезпечення ефективного розгортання та масштабування додатків.
Про вас
[Мінімальні кваліфікаційні вимоги]
* Отриманий бакалаврський/магістерський ступінь в галузі комп'ютерних наук.
* 3+ років досвіду в побудові та управлінні великими розподіленими системами або застосунками.
* Досвід роботи з Kubernetes, Linux / Unix.
* Досвід управління даними великого обсягу або сховищем даних.
* Поглиблені знання в розробці структур даних та алгоритмів на платформах Big Data.
* Здатність працювати самостійно і ефективно в динамічному середовищі.
* Здатність працювати в інтенсивному режимі, виконуючи безліч завдань і проектів.
* Прагнення мати значний вплив на світ через самоосвіту та втілення ідей в життя.
[Бажані кваліфікаційні вимоги]
* Внесок у розробку відкритих проектів - значна перевага (вкажіть своє посилання на Github).
* Досвід роботи з Python, Scala / Java вважається привілеєм.
* Досвід роботи з Hadoop, Hive, Flink, Presto/Trino та пов'язаними з ними системами великих даних є бажаним.
* Досвід роботи з публічними хмарними службами, такими як AWS або GCP, є перевагою.