Rapsodo Inc. est une entreprise d'analyse de données sportives qui utilise la vision par ordinateur et l'apprentissage automatique pour aider tous les athlètes à optimiser leurs performances. Nos applications technologiques propriétaires vont de l'aide aux golfeurs du PGA Tour pour optimiser leurs conditions de lancement, à permettre aux lanceurs de la MLB d'augmenter l'efficacité de leurs balles cassantes. Parmi nos partenaires actuels, on compte toutes les équipes de la MLB, la MLB, USA Baseball, Golf Digest, PGA of America, et plus de 1000 départements sportifs de la NCAA.
Nous sommes innovants, concentrés et en pleine croissance. Nous sommes en permanence à la recherche de personnes très motivées qui n'arrêteront à rien pour fournir des solutions de pointe en tant que partie de l'équipe Rapsodo.
Exigences
Responsabilités :
- Diriger la conception, le développement et la maintenance de notre architecture de stockage de données complète, intégrant Google BigQuery, Kafka, GCP Pub/Sub et d'autres technologies pertinentes.
- Collaborer étroitement avec les unités d'affaires pour recueillir les exigences et les traduire en solutions de données efficaces et évolutives.
- Développer et optimiser les processus ETL pour extraire, transformer et charger les données provenant de sources diverses dans notre entrepôt de données, tout en garantissant la qualité et la précision des données.
- Implémenter et gérer des pipelines de flux de données en temps réel en utilisant Kafka et GCP Pub/Sub pour permettre une ingestion et un traitement rapides des données.
- Travailler avec des data scientists et des analystes pour leur fournir des données propres et structurées pour l'analyse et les rapports.
- Concevoir et mettre en œuvre des stratégies de gouvernance des données pour garantir la sécurité, la conformité et la confidentialité des données.
- Surveiller et dépanner les pipelines de données, identifier et résoudre les goulots d'étranglement de performance et les problèmes de qualité des données.
- Rester à jour avec les technologies et tendances émergentes en ingénierie de données, proposer des solutions innovantes pour améliorer notre infrastructure de données.
Qualifications :
- Diplôme de baccalauréat ou supérieur en informatique, en ingénierie des données ou dans un domaine connexe.
- Expérience approfondie en tant qu'ingénieur de données, spécialisé en Google BigQuery, Kafka, GCP Pub/Sub et technologies connexes.
- Bonne connaissance de l'architecture d'entrepôt de données, des processus ETL et des méthodes d'intégration de données.
- Compétence en SQL et expérience de l'optimisation de requêtes complexes pour la performance.
- Compréhension solide de l'architecture basée sur les événements et des flux de données en temps réel à l'aide de Kafka et GCP Pub/Sub.
- Familiarité avec les solutions basées sur le cloud, en particulier Google Cloud Platform (GCP).
- Expérience de la conception et de la mise en œuvre de mesures de gouvernance et de sécurité des données.
- Excellentes capacités de résolution de problèmes et capacité à dépanner et à résoudre des problèmes de données complexes.
- Excellentes compétences en communication pour collaborer efficacement avec les parties prenantes techniques et non techniques.
- L'expérience du leadership ou la capacité de guider les membres juniors de l'équipe est un plus.
- Les certifications pertinentes en GCP, Google BigQuery et Kafka sont très souhaitables.
Si vous pensez avoir ce qu'il faut et que vous êtes impatient de travailler de manière indépendante tout en contribuant dans un environnement innovant, passionné et dynamique, postulez dès maintenant!