Инженер по данным

  • Full Time
Job expired!
Rapsodo Inc. - это компания, занимающаяся аналитикой в области спорта, которая использует машинное обучение и компьютерное зрение для помощи спортсменам в максимизации их результативности. Наши уникальные технологические приложения варьируются от помощи гольфистам PGA Tour в оптимизации условий запуска до позволяющих бейсболистам MLB улучшить эффективность их мячей. Наши текущие партнеры включают все 30 команд MLB, MLB, USA Baseball, Golf Digest, PGA of America и более 1000 отделений NCAA. Мы новаторски настроены, сосредоточены и быстро растем. Мы постоянно находимся в поисках высокомотивированных членов команды, которые ни перед чем не остановятся, чтобы предоставить передовые решения в составе Team Rapsodo. Требования Обязанности: - Вести проектирование, разработку и обслуживание нашей обширной архитектуры хранилища данных, интегрируя Google BigQuery, Kafka, GCP Pub/Sub и другие соответствующие технологии. - Тесно сотрудничать с бизнес-подразделениями для сбора требований и преобразования их в эффективные и масштабируемые решения для данных. - Разрабатывать и улучшать процессы ETL для извлечения, преобразования и загрузки данных из различных источников в наше хранилище данных, обеспечивая качество данных и точность. - Создавать и управлять потоками передачи данных в реальном времени с использованием Kafka и GCP Pub/Sub для быстрого сбора и обработки данных. - Сотрудничать с учеными и аналитиками по данным для предоставления им чистых, структурированных данных для анализа и составления отчетов. - Проектировать и внедрять стратегии управления данными для обеспечения безопасности данных, соответствия и конфиденциальности. - Осуществлять мониторинг и устранять неполадки в потоках передачи данных, выявляя и решая проблемы с производительностью и качеством данных. - Быть в курсе новейших технологий и тенденций в области инженерии данных, предлагая новаторские решения для улучшения нашей инфраструктуры данных. Квалификация: - Бакалавр или высшая степень в Computer Science, инженерии данных или в смежной области. - Значительный опыт работы инженером по данным, специализирующимся на Google BigQuery, Kafka, GCP Pub/Sub и смежных технологиях. - Глубокие знания архитектуры хранилищ данных, процессов ETL и методологий интеграции данных. - Владение SQL и опыт оптимизации сложных запросов для увеличения производительности. - Твердое понимание событийно-ориентированной архитектуры и передачи данных в реальном времени с использованием Kafka и GCP Pub/Sub. - Знакомство с решениями на основе облака, в частности с Google Cloud Platform (GCP). - Опыт в проектировании и реализации мер по управлению данными и безопасности. - Сильные способности к решению проблем и способность устранять и решать сложные проблемы, связанные с данными. - Отличные коммуникативные навыки для эффективного сотрудничества с техническими и нетехническими заинтересованными сторонами. - Опыт лидерства или способность руководить младшими членами команды является плюсом. - Соответствующие сертификаты в GCP, Google BigQuery, и Kafka будут очень ценны. Если вы считаете, что у вас есть все необходимые качества и вы готовы работать самостоятельно, а также вносить свой вклад в инновационную, страстную и динамичную среду, отправляйте заявку!