Інженер з даних

  • Full Time
Job expired!
Rapsodo Inc. - це компанія, що спеціалізується на аналітиці спорту, яка використовує машинне навчання та комп'ютерне бачення для допомоги спортсменам максимізувати їхній потенціал. Наші ексклюзивні технологічні рішення включають допомогу гольфістам PGA Tour в оптимізації умов запуску та можливість для пітчерів MLB покращувати ефективність їхніх м'ячів. Наразі до наших партнерів належать всі 30 команд MLB, MLB, USA Baseball, Golf Digest, PGA of America та більше ніж 1000 атлетичних департаментів NCAA. Ми іноваційні, зосереджені та швидко розвиваємося. Ми постійно шукаємо високо мотивованих членів команди, які не зупиняться ні перед чим, щоб поставити передові рішення як частина команди Rapsodo. Вимоги Обов'язки: - Керувати проектуванням, розробкою та обслуговуванням нашої великої архітектури сховища даних, включаючи Google BigQuery, Kafka, GCP Pub/Sub та інші актуальні технології. - Тісно співпрацювати з бізнес-підрозділами для збору вимог та перетворення їх на ефективні та масштабовані рішення для даних. - Розробляти та покращувати процеси ETL для витягування, перетворення та завантаження даних з різних джерел до нашого сховища даних, забезпечуючи якість та точність даних. - Створити та керувати потоками вхідних даних у реальному часі за допомогою Kafka та GCP Pub/Sub для швидкого введення та обробки даних. - Співпрацювати з дата-науковцями та аналітиками для поставки їм чистих, структурованих даних для аналізу та звітності. - Розробляти та впроваджувати стратегії управління даними для забезпечення безпеки даних, відповідності та приватності. - Відстежувати та усувати проблеми в трубопроводах даних, виявляючи та вирішуючи проблеми продуктивності та якості даних. - Бути в курсі новітніх технологій та тенденцій в інженерії даних, пропонуючи інноваційні рішення для покращення нашої інфраструктури даних. Кваліфікація: - Бакалаврський або більш високий ступінь у Галузі комп'ютерних наук, Інженерії даних або суміжній області. - Великий досвід роботи як інженера даних, спеціаліста в Google BigQuery, Kafka, GCP Pub/Sub та суміжних технологіях. - Глибокі знання архітектури сховища даних, процесів ETL та методів інтеграції даних. - Володіння SQL та досвід оптимізації складних запитів для поліпшення продуктивності. - Гарне розуміння архітектури, заснованої на подіях, та потоку даних в реальному часі за допомогою Kafka і GCP Pub/Sub. - Знайомство з хмарними рішеннями, особливо Google Cloud Platform (GCP). - Досвід розробки та впровадження заходів з управління даними та безпеки. - Сильні проблемно-орієнтовані здібності та здатність вирішувати та усувати складні проблеми, пов'язані з даними. - Відмінні комунікативні навички для ефективної співпраці з технічними та нетехнічними учасниками. - Досвід керівництва або здатність керувати молодшими членами команди є перевагою. - Релевантні сертифікати в GCP, Google BigQuery та Kafka сильно бажані. Якщо ви вважаєте, що ви відповідаєте вимогам та зацікавлені працювати самостійно, а також вносити свій вклад у інноваційне, пристрасне та динамічне середовище, подавайте заявку зараз!