Rejoignez notre équipe dynamique d'ingénierie des données d'audit chez KPMG India en tant qu'Associate Senior 2. Utilisez vos compétences en extraction, transformation et visualisation des données pour générer des insights significatifs et nous aider à fournir des services d'audit exceptionnels.
En tant que membre de notre équipe d'ingénierie des données d'audit, vous développerez une maîtrise des outils propriétaires et des règles commerciales de KPMG. Vous serez responsable de l'extraction, de la validation, de l'analyse et de la visualisation des données des systèmes ERP des clients (On-Premise/Cloud). Vos contributions fourniront des insights critiques aux équipes d'audit engagées sur divers processus commerciaux.
- Construire et configurer des outils ETL pour extraire et transformer des données provenant de multiples sources.
- Utiliser les technologies Azure Cloud pour les processus ETL, fournissant des conseils techniques pour le débogage des problèmes.
- Concevoir, coder, vérifier, documenter et modifier des programmes/scripts modérément complexes.
- Mettre en œuvre des processus d'ingestion, de transformation et de validation des données pour assurer la qualité et la fiabilité des données en utilisant des applications cloud Azure.
- Appliquer des techniques d'analyse des données, de conception, de modélisation et d'assurance qualité selon les processus commerciaux.
- Participer à la conception, au développement et à la mise en œuvre des modules et de leurs améliorations.
- Gérer les spécifications techniques de haut niveau et la conception de solutions; construire et mettre en œuvre des corrections et des améliorations.
- Développer des routines d'exploitation et d'équipe d'engagement en utilisant les technologies choisies.
- Diriger des sous-modules pour les nouvelles versions de produits avec les équipes fonctionnelles ERP et de test.
- Construire et diriger votre équipe, livrant de notre équipe et formant des professionnels en ingénierie des données Azure.
L'expérience avec PyTorch, TensorFlow, Keras et les algorithmes AI/ML (k-NN, Naive Bayes, SVM, Decision Forests) est avantageuse.
- Assister les clients dans l'extraction de données à distance avec une complexité et une taille de données moyennes à élevées.
- Aider les équipes d'engagement d'audit en coordonnant l'extraction de données avec les équipes informatiques des clients et les responsables techniques.
- Interpréter les résultats et fournir des insights significatifs à partir des rapports.
- Développer des transformations de données en utilisant Azure Databricks, Azure Data Factory ou Python.
- Déboguer, optimiser et résoudre les problèmes de traitement de grands ensembles de données avec une supervision limitée.
- Assurer l'intégrité et la complétude des données à travers plusieurs couches de données.
- Maintenir un statut de projet précis pour soi-même et les membres de l'équipe.
- Préparer et examiner les documents d'engagement avec une attention aux détails.
- Gérer et analyser de grands volumes de données en utilisant Azure Databricks et Apache Spark, en créant des flux de travail et des pipelines de données.
- Former les Associates sur les meilleures pratiques de traitement des données pour les travaux de moindre complexité.
- Compétences principales : Azure Data Factory, Azure Data Lake Storage, Azure Databricks, Azure Synapse Analytics, Python ou Pyspark, SQL/PLSQL
- 6+ années d'expérience dans les TI en ETL et Microsoft Azure.
- Expérience dans la construction de processus ETL/ELT et l'ingestion/migration de données.
- Maîtrise de l'écriture de notebooks en Python ou Pyspark pour la transformation des données en intégration avec Azure Data Lake Storage.
- Capacité à surveiller, dépanner et optimiser les notebooks Databricks, Azure Data Factory, et les charges de travail