Exmox, зі штаб-квартирою в Гамбурзі, є піонерською компанією в сфері AdTech, зосередженою на розробці передових продуктів для перфоманс-маркетингу. Ми прагнемо безперешкодно з'єднувати рекламодавців з їхніми найціннішими користувачами за допомогою наших інноваційних, власних рішень. Наша унікальна бізнес-модель відрізняє нас від інших, оскільки ми винагороджуємо користувачів за тестування та активну взаємодію з продуктами наших клієнтів.
Ми пишаємося нашим динамічним підходом та різноманітним портфоліо клієнтів, серед яких є деякі з найвідоміших імен у мобільній ігровій індустрії. В час, коли ми вступаємо в захоплюючу фазу масштабування, ми шукаємо амбітних особистостей, які бажають внести свій вклад у наш розвиток.
Готові зробити значущий внесок? Приєднуйтесь до нашої зростаючої команди та зіграйте важливу роль у формуванні майбутнього перфоманс-маркетингу. Разом відкриватимемо нові горизонти та переосмислюватимемо можливості в цій яскравій індустрії.
- Активно формуйте свою позицію, вдосконалюючи її новими ідеями та беручи участь у процесах.
- Проектуйте, розробляйте та підтримуйте масштабовані канали даних clickstream, використовуючи сервісні рішення AWS, такі як Kinesis Data Streams, Delivery Firehose, функції Lambda та резервуари S3.
- Впроваджуйте трансформації даних та логіку обробки за допомогою PySpark для ефективного оброблення й аналізу даних.
- Оптимізуйте та усувайте неполадки в існуючих каналах даних для забезпечення високої продуктивності та надійності.
- Співпрацюйте з мультидисциплінарними командами для інтеграції даних з різних джерел у наш DataLakehouse на базі DataBricks.
- Використовуйте Python та SQL для маніпулювання даними, виконання запитів та завдань з валідації.
- Моніторьте продуктивність каналів даних, проактивно ідентифікуйте та вирішуйте проблеми для забезпечення якості та цілісності даних.
- Будьте в курсі найкращих практик та технологій у галузі інженерії даних.
- Ступінь бакалавра в області комп'ютерних наук, інженерії або суміжних сфер.
- Високий рівень володіння Python, SQL та PySpark для маніпулювання та обробки даних.
- Практичний досвід роботи з DataBricks та сервісами AWS (наприклад, S3, Kinesis, Lambda) або подібними технологіями.
- Знання принципів проектування, впровадження та оптимізації процесів ETL, а також організації ETL-воркфлоу.
- Міцне розуміння концепцій зберігання даних, знання моделі DataVault є перевагою.
- Досвід роботи з CI/CD конвеєрами GitLab.
- Знання PostgreSQL є плюсом.
- Знання найкращих практик інтеграції даних та забезпечення якості даних.
- Відмінні навички розв'язування проблем та увага до деталей.
- Здатність працювати самостійно та ефективно співпрацювати в командному середовищі.
- Сильні комунікативні