Nos membres d'équipe sont au cœur de tout ce que nous faisons. Chez Cencora, nous sommes unis par notre responsabilité de créer des avenirs plus sains, et chaque personne ici est essentielle pour atteindre cet objectif. Si vous souhaitez faire une différence au centre de la santé, rejoignez notre entreprise innovante et aidez-nous à améliorer la vie des personnes et des animaux partout. Postulez dès aujourd'hui !
Tâches et responsabilités principales :
- Travailler avec les parties prenantes commerciales pour identifier les problèmes, opportunités et initiatives commerciales pour lesquels des modèles analytiques peuvent fournir des insights permettant le développement de solutions.
- Conceptualiser, concevoir et développer des modèles analytiques pour résoudre des problèmes commerciaux complexes, découvrir des insights et identifier des opportunités en utilisant une approche fondée sur des hypothèses.
- Traduire les données en informations et en insights avec une analyse des scénarios clairs, un impact commercial et des plans d'exécution pour générer un impact.
- Collaborer avec les membres de l'équipe pour inclure des données précises et pertinentes pour les modèles d'apprentissage automatique, identifier des sources de données proxy potentielles et concevoir des solutions d'analyse commerciale en tenant compte des besoins futurs, de l'infrastructure et des exigences de sécurité.
- Effectuer des analyses de données et concevoir et développer des algorithmes analytiques modérément complexes.
- Modéliser et encadrer des scénarios commerciaux qui ont un impact sur les processus commerciaux critiques et les décisions.
- Collaborer avec des experts en la matière pour sélectionner des sources d'informations pertinentes, en traduisant les exigences commerciales en accès sémantique, modèles de données conceptuels, logiques et physiques.
- Exécuter le profilage des données et des procédures préventives pour améliorer la qualité des données ; utiliser la technologie pour extraire et analyser des données brutes.
- Identifier des opportunités et soutenir le développement de solutions automatisées pour améliorer la qualité des données d'entreprise.
- Coder, tester, déboguer et documenter des programmes complexes, et améliorer les programmes existants pour s'assurer que les systèmes de traitement des données répondent aux exigences des utilisateurs.
- Développer des spécifications pour des rapports spécifiques aux clients et aux utilisateurs, y compris les exclusions de réseau, les circonstances spéciales et les éléments de données personnalisés.
- Identifier des domaines complexes pour résoudre de nouveaux problèmes techniques et fournir des solutions techniques innovantes dans le domaine de la science des données et de l'apprentissage automatique.
- Concevoir, développer, tester, déployer et maintenir des systèmes de traitement des données.
- Construire des pipelines de données évolutifs en utilisant Azure Data Factory pour extraire, transformer et charger des données structurées et non structurées.
- Implémenter un stockage sécurisé et des contrôles d'accès pour les données sensibles en utilisant Azure Key Vaults.
- Exploiter Azure Databricks pour les tâches analytiques avancées, y compris les travaux ETL et les workflows d'apprentissage automatique.
- Utiliser les principes fondamentaux de Spark pour optimiser les tâches de traitement des mégadonnées.
- Collaborer avec des équipes multifonctionnelles pour comprendre les exigences commerciales et les traduire en solutions techniques.
- Assurer la qualité des données en implémentant des vérifications de validation appropriées et des mécanismes de gestion des erreurs.
- Travailler en étroite collaboration avec les équipes DevOps pour intégrer les processus de génie des données dans les pipelines CI/CD.
- Surveiller les performances des pipelines de données et résoudre les problèmes qui surviennent.
- Documenter les spécifications techniques, les processus et les meilleures pratiques.
- Diplôme de licence en informatique ou dans un domaine connexe (ou expérience de travail équivalente).
- Expérience avérée en tant qu'ingénieur de données ou rôle similaire travaillant sur des projets à grande échelle.
- Expertise dans les services Azure tels que Data Factory, Key Vaults, et Databricks (Auto Loader, Unity Catalog, Workflows).
- Maîtrise des principes fondamentaux de Spark pour un traitement efficace des még