GEICO recherche un individu dynamique et visionnaire pour rejoindre notre équipe Exchange Hub Engineering. Notre équipe Exchange Hub s'engage à faciliter une communication et une collaboration transparentes et sécurisées entre toutes les parties internes et externes en collectant, gérant et optimisant les échanges de données.
Le candidat idéal est intellectuellement curieux, orienté vers la solution et aime apprendre de nouveaux outils et techniques. Vous aurez l'opportunité de concevoir et de livrer une plateforme d'échange de données centralisée et sécurisée, des SDKs et des outils liés pour collecter, gérer et analyser les données des utilisateurs provenant de différentes sources pour des produits et services d'assurance personnalisés et basés sur les données. Vous serez responsable de la livraison d'un Marketplace pour les intégrations de 1ère et 3ème partie, utilisant le Comptage, la Télémétrie et les Technologies de Streaming pour améliorer l'évaluation des risques et l'engagement client grâce à la collecte, le stockage et l'analyse de données en temps réel.
- Diriger et encadrer une équipe d'ingénieurs de données pour concevoir, développer et maintenir des pipelines de données robustes.
- Collaborer avec des équipes interfonctionnelles pour comprendre les besoins en données et architecturer des solutions évolutives pour l'ingestion, la transformation et l'intégration de données.
- Mettre en œuvre les meilleures pratiques pour la gouvernance des données, la sécurité et la conformité en utilisant les Services Azure Data Lake.
- Gérer l'ensemble du cycle de vie des pipelines de données, y compris le monitoring, le dépannage et l'optimisation.
- Rester à jour avec les technologies émergentes et les tendances de l'industrie, offrant des conseils sur leur adoption et mise en œuvre.
- Travailler en étroite collaboration avec les parties prenantes pour prioriser et planifier de nouvelles initiatives de données, en assurant l'alignement avec les objectifs commerciaux et la faisabilité technique.
- Favoriser une culture d'amélioration continue et d'innovation au sein de l'équipe d'ingénierie des données.
- Expérience prouvée de leadership et d'encadrement d'une équipe d'ingénieurs de données.
- Expertise dans le développement et la maintenance de pipelines de mouvement de données en utilisant des technologies telles que Airbyte, Airflow, Kafka, Flink, les technologies CDC comme Debezium, Oracle Golden Gate, et les technologies Big Data comme Hudi, Presto, Trino, et les Services Azure Data Lake.
- Expérience avec les technologies de containerisation et d'orchestration telles que Docker et Kubernetes.
- Connaissance des concepts et technologies d'entrepôt de données (par exemple, Snowflake, Redshift, BigQuery).
- Solide compréhension des concepts et technologies de big data, y compris le calcul distribué et l'écosystème Hadoop.
- Maîtrise des technologies et concepts de cloud computing (SaaS, PaaS, IaaS).
- Connaissance solide des plateformes cloud telles que AWS, GCP, et Azure, incluant les services pertinents pour le stockage, le traitement et l'analyse des données.
- Forte base en algorithmes, structures de données et concepts fondamentaux de l'informatique.
- Maîtrise des Services Web RESTful et des Architectures Orientées Événement.
- Expérience avec au moins un langage de programmation moderne tel que Python, Java, ou Go.
- Expérience avec les outils de monitoring d'applications et les évaluations de performance.
- Maîtrise des systèmes de contrôle de version (par exemple, Git) et des pipelines CI/CD pour le test automatique et le déploiement.
- Excellentes