Присоединяйтесь к нашей динамичной команде инженеров по данным аудита в KPMG India на должности старшего ассоциата 2. Используйте свои навыки в области извлечения, трансформации и визуализации данных для получения значимых инсайтов и помощи в предоставлении исключительных аудиторских услуг.
В рамках нашей команды инженеров по данным аудита вы разовьете умения использовать проприетарные инструменты и бизнес-правила KPMG. Вы будете отвечать за извлечение, валидацию, анализ и визуализацию данных из ERP систем клиентов (локальные/облачные). Ваш вклад обеспечит критически важные инсайты для аудиторских команд по различным бизнес-процессам.
Основные обязанности
Разработка
- Создавать и настраивать ETL инструменты для извлечения и трансформации данных из множества источников.
- Использовать технологии Azure Cloud для ETL-процессов, предоставляя технические рекомендации по устранению неполадок.
- Разрабатывать, кодировать, проверять, документировать и изменять умеренно сложные программы/скрипты.
- Реализовать процессы по загрузке, трансформации и валидации данных для обеспечения их качества и надежности с использованием приложений Azure Cloud.
- Применять методы анализа данных, разработки, моделирования и обеспечения качества на основе бизнес-процессов.
- Участвовать в проектировании, разработке и внедрении модулей и их улучшений.
- Обработать технические спецификации высокого уровня и проектировать решения; создавать и внедрять исправления и улучшения.
- Разрабатывать операционные и рутинные процедуры для команд взаимодействия с клиентами с использованием выбранных технологий.
- Руководить подмодулями для новых выпусков продуктов с командами функционального тестирования ERP.
- Создавать и руководить своей командой, обеспечивая выполнение задач и обучая профессионалов инженерии данных в Azure.
Опыт работы с PyTorch, TensorFlow, Keras и алгоритмами AI/ML (k-NN, Naive Bayes, SVM, Decision Forests) является преимуществом.
Исполнение
- Поддерживать клиентов в удаленном извлечении данных средней и высокой сложности и большого объема данных.
- Помогать аудиторским командам, координируя извлечение данных с IT-командами клиентов и техническими руководителями.
- Интерпретировать результаты и предоставлять значимые инсайты на основе отчетов.
- Разрабатывать трансформации данных с использованием Azure Databricks, Azure Data Factory или Python.
- Отлаживать, оптимизировать и решать проблемы при обработке больших наборов данных с минимальным руководством.
- Обеспечивать целостность и полноту данных на различных уровнях данных.
- Поддерживать точный статус проекта для себя и членов команды.
- Готовить и проверять документы взаимодействия с клиентами с вниманием к деталям.
- Обрабатывать и анализировать большие объемы данных с использованием Azure Databricks и Apache Spark, создавая рабочие процессы и конвейеры данных.
- Обучать ассоциатов лучшим практикам обработки данных для работ низкой сложности.
Требования к работе
Технические навыки
- Основные навыки: Azure Data Factory, Azure Data Lake Storage, Azure Databricks, Azure Synapse Analytics, Python или Pyspark, SQL/PLSQL
- 6+ лет опыта работы в IT в области ETL и Microsoft Azure.
- Опыт создания процессов ETL/ELT и загрузки/миграции данных.