Rapsodo Inc. es una empresa de análisis deportivo que utiliza la visión por computadora y el aprendizaje automático para ayudar a todos los atletas a maximizar su rendimiento. Nuestras aplicaciones tecnológicas propias varían desde ayudar a los golfistas del PGA Tour a optimizar sus condiciones de lanzamiento hasta permitir a los lanzadores de la MLB aumentar la eficiencia de sus lanzamientos rompientes. Entre nuestros socios actuales se incluyen los 30 equipos de la MLB, MLB, USA Baseball, Golf Digest, PGA of America y más de 1000 departamentos atléticos de la NCAA.
Somos innovadores, enfocados y estamos creciendo rápidamente. Buscamos constantemente miembros de equipo muy motivados que no se detendrán ante nada para proporcionar soluciones de vanguardia como parte del equipo Rapsodo.
Requisitos
Responsabilidades:
- Liderar el diseño, desarrollo y mantenimiento de nuestra arquitectura integral de almacén de datos, integrando Google BigQuery, Kafka, GCP Pub/Sub y otras tecnologías relevantes.
- Colaborar estrechamente con las unidades de negocio para recopilar requisitos y traducirlos en soluciones de datos efectivas y escalables.
- Desarrollar y optimizar procesos de ETL para extraer, transformar y cargar datos de diversas fuentes en nuestro almacén de datos, asegurando la calidad y precisión de los datos.
- Implementar y administrar pipelines de transmisión de datos en tiempo real utilizando Kafka y GCP Pub/Sub para permitir una rápida ingesta y procesamiento de datos.
- Trabajar junto a científicos de datos y analistas para proporcionarles datos limpios y estructurados para análisis y propósitos de informes.
- Diseñar e implementar estrategias de gobernanza de datos para garantizar la seguridad de los datos, el cumplimiento y la privacidad.
- Supervisar y solucionar problemas en los pipelines de datos, identificando y resolviendo problemas de rendimiento y calidad de datos.
- Mantente al día con las tecnologías emergentes y las tendencias en ingeniería de datos, proponiendo soluciones innovadoras para mejorar nuestra infraestructura de datos.
Requisitos mínimos:
- Titulo de licenciatura o superior en Ciencias de la Computación, Ingeniería de Datos, o un campo relacionado.
- Amplia experiencia como Ingeniero de Datos, especializándose en Google BigQuery, Kafka, GCP Pub/Sub y tecnologías relacionadas.
- Sólidos conocimientos de arquitectura de almacén de datos, procesos ETL y metodologías de integración de datos.
- Proficiencia en SQL y experiencia en optimización de consultas complejas para mejorar rendimiento.
- Sólido entendimiento de la arquitectura impulsada por eventos y transmisión de datos en tiempo real utilizando Kafka y GCP Pub/Sub.
- Familiaridad con soluciones basadas en la nube, particularmente Google Cloud Platform (GCP).
- Experiencia en diseño e implementación de medidas de gobernanza y seguridad de datos.
- Fuertes habilidades para solucionar problemas y la capacidad para solucionar y resolver problemas complejos relacionados con datos.
- Excelentes habilidades de comunicación para colaborar eficazmente con actores técnicos y no técnicos.
- Experiencia de liderazgo o la capacidad de guiar a los miembros del equipo junior es un plus.
- Las certificaciones relevantes en GCP, Google BigQuery y Kafka son altamente deseables.
Si crees que tienes lo que se necesita y esperas trabajar de manera independiente, así como contribuir en un ambiente innovador, apasionado y motivado, ¡aplica ahora!