Apportez votre cœur à CVS Health. Chez CVS Health, chaque membre de l'équipe partage un objectif clair et unique : Apporter notre cœur à chaque moment de votre santé. Cet objectif sous-tend notre engagement à offrir des soins de santé améliorés et centrés sur l'humain dans un monde en constante évolution. Ancré dans notre marque, avec le cœur en son centre, notre mission souligne que la manière dont nous délivrons nos services est tout aussi cruciale que ce que nous délivrons.
Nos comportements Heart At Work™ soutiennent cette mission, permettant à chacun chez CVS Health de jouer un rôle central dans la transformation de notre culture et l'accélération de notre innovation. Cela nous permet de fournir des solutions qui rendent les soins de santé plus personnels, pratiques et abordables.
Caremark LLC, une société de CVS Health, recrute pour le poste d'Ingénieur Senior de Données à Wellesley, MA. Le rôle implique de développer, construire et gérer des structures de données à grande échelle, des pipelines et des workflows ETL (Extract/Load/Transform) efficaces pour résoudre des défis complexes et soutenir les applications commerciales.
- Développer des structures de données et des pipelines à grande échelle pour organiser, collecter et standardiser les données pour les besoins d'analyses et de rapports.
- Écrire des processus ETL, concevoir des systèmes de bases de données et développer des outils pour le traitement analytique en temps réel et hors ligne afin d'améliorer et d'étendre les capacités.
- Collaborer avec l'équipe de Science des données pour transformer les données et intégrer des algorithmes et des modèles dans des processus automatisés.
- Tester, maintenir les systèmes et résoudre les dysfonctionnements.
- Utiliser les connaissances de l'architecture Hadoop, des commandes HDFS et de l'optimisation des requêtes pour construire des pipelines de données.
- Appliquer des compétences en programmation en Python, Java, ou dans des langages similaires pour construire des pipelines de données robustes et des systèmes dynamiques.
- Construire des data marts et des modèles de données pour supporter la Science des données et d'autres clients internes.
- Intégrer des données provenant de diverses sources tout en veillant aux normes de qualité et d'accessibilité des données.
- Analyser les environnements informatiques pour identifier les capacités cruciales et recommander des solutions à des problèmes complexes de business.
- Expérimenter avec les outils disponibles et conseiller sur les nouveaux outils pour des solutions optimales en fonction des modèles/cas d'utilisation requis.
Master (ou équivalent étranger) en Informatique, Science des données, Statistiques, Mathématiques, Analytique de la santé, Biologie computationnelle, ou un domaine connexe, et deux (2) ans d'expérience dans le poste proposé ou un poste connexe. Les candidats doivent également avoir deux (2) ans d'expérience dans les domaines suivants :
- Programmation en Java, Python ou R
- XML, JSON, HTML, CSS ou JavaScript
- Méthodologies Agile ou principes de développement logiciel SAFe
- Microservices Spring Boot
- React, jQuery, Ajax ou Bootstrap
- APIs REST, SOAP ou Web Service
- Base de données Redis ou Cassandra
- Technologies cloud : Azure, AWS ou Google Cloud Platform (GCP)
- Architecture Hadoop ou commandes HDFS
- Analyse de grands ensembles de données provenant de sources multiples
- Analyse de données pour les industries de la distribution et/ou de la santé
- Langages de programmation SAS ou SQL
- Écriture de processus ETL
- Conception et optimisation des requêtes pour construire des pipelines de données
- Gestion de grandes structures de données ou workflows ETL
- Analytique des données, ingénierie des données et visualisation des données
- Déploiement et mise à l'échelle d'applications dans un environnement conteneurisé (Kubernetes, AKS)
- Technologie de streaming de données comme Kafka
La fourchette de rémunération pour ce poste est