Rapsodo Inc. - это компания, занимающаяся аналитикой в области спорта, которая использует машинное обучение и компьютерное зрение для помощи спортсменам в максимизации их результативности. Наши уникальные технологические приложения варьируются от помощи гольфистам PGA Tour в оптимизации условий запуска до позволяющих бейсболистам MLB улучшить эффективность их мячей. Наши текущие партнеры включают все 30 команд MLB, MLB, USA Baseball, Golf Digest, PGA of America и более 1000 отделений NCAA.
Мы новаторски настроены, сосредоточены и быстро растем. Мы постоянно находимся в поисках высокомотивированных членов команды, которые ни перед чем не остановятся, чтобы предоставить передовые решения в составе Team Rapsodo.
Требования
Обязанности:
- Вести проектирование, разработку и обслуживание нашей обширной архитектуры хранилища данных, интегрируя Google BigQuery, Kafka, GCP Pub/Sub и другие соответствующие технологии.
- Тесно сотрудничать с бизнес-подразделениями для сбора требований и преобразования их в эффективные и масштабируемые решения для данных.
- Разрабатывать и улучшать процессы ETL для извлечения, преобразования и загрузки данных из различных источников в наше хранилище данных, обеспечивая качество данных и точность.
- Создавать и управлять потоками передачи данных в реальном времени с использованием Kafka и GCP Pub/Sub для быстрого сбора и обработки данных.
- Сотрудничать с учеными и аналитиками по данным для предоставления им чистых, структурированных данных для анализа и составления отчетов.
- Проектировать и внедрять стратегии управления данными для обеспечения безопасности данных, соответствия и конфиденциальности.
- Осуществлять мониторинг и устранять неполадки в потоках передачи данных, выявляя и решая проблемы с производительностью и качеством данных.
- Быть в курсе новейших технологий и тенденций в области инженерии данных, предлагая новаторские решения для улучшения нашей инфраструктуры данных.
Квалификация:
- Бакалавр или высшая степень в Computer Science, инженерии данных или в смежной области.
- Значительный опыт работы инженером по данным, специализирующимся на Google BigQuery, Kafka, GCP Pub/Sub и смежных технологиях.
- Глубокие знания архитектуры хранилищ данных, процессов ETL и методологий интеграции данных.
- Владение SQL и опыт оптимизации сложных запросов для увеличения производительности.
- Твердое понимание событийно-ориентированной архитектуры и передачи данных в реальном времени с использованием Kafka и GCP Pub/Sub.
- Знакомство с решениями на основе облака, в частности с Google Cloud Platform (GCP).
- Опыт в проектировании и реализации мер по управлению данными и безопасности.
- Сильные способности к решению проблем и способность устранять и решать сложные проблемы, связанные с данными.
- Отличные коммуникативные навыки для эффективного сотрудничества с техническими и нетехническими заинтересованными сторонами.
- Опыт лидерства или способность руководить младшими членами команды является плюсом.
- Соответствующие сертификаты в GCP, Google BigQuery, и Kafka будут очень ценны.
Если вы считаете, что у вас есть все необходимые качества и вы готовы работать самостоятельно, а также вносить свой вклад в инновационную, страстную и динамичную среду, отправляйте заявку!