Dołącz do Naszego Zespołu Inżynierii Danych Audytowych
Szukamy utalentowanej i zaangażowanej osoby do naszego zespołu Inżynierii Danych Audytowych w KPMG India. Jest to rola techno-funkcjonalna, w której zdobędziesz wiedzę na temat narzędzi KPMG i oprogramowania biznesowego. Twoje obowiązki będą obejmować ekstrakcję, walidację, analizę oraz wizualizację danych z systemów ERP naszych klientów, bez względu na to, czy są one zainstalowane lokalnie czy w chmurze. W ramach tej roli dostarczysz standardowe raporty, dokumenty audytowe i wgląd zespołom audytowym zaangażowanym w różne procesy biznesowe. Ponadto będziesz wspierać rozwój rozwiązań dla różnych usług związanych z Danymi i Analizą (D&A) w Audycie.
Kluczowe Obowiązki
Rozwój
- Tworzenie i konfigurowanie narzędzi ETL do skutecznej ekstrakcji i transformacji danych z wielu źródeł, zarówno lokalnie, jak i w chmurze.
- Znać technologie Azure Cloud, aby wykonywać ETL. Udostępniać techniczne wskazówki dotyczące debugowania błędów/problemów.
- Projektowanie, kodowanie, weryfikacja, testowanie, dokumentowanie, modyfikowanie i refaktoryzacja średnio skomplikowanych programów/skryptów zgodnie z uzgodnionymi standardami i narzędziami, aby osiągnąć dobrze zaprojektowany rezultat.
- Opracowywanie i wdrażanie procesów gromadzenia, przetwarzania i walidacji danych przy użyciu aplikacji w chmurze Azure, z zapewnieniem jakości, spójności i niezawodności danych.
- Stosowanie technik analizy danych, projektowania, modelowania i kontroli jakości w oparciu o szczegółowe zrozumienie procesów biznesowych.
- Uczestnictwo w projektowaniu, rozwoju i wdrażaniu poprawek oraz ulepszeń nowych lub istniejących modułów.
- Pomoc lub prowadzenie w opracowywaniu rutyn operacyjnych i/lub związanych z zespołem zaangażowanym.
- Prowadzenie zadań zespołu i szkolenie profesjonalistów w celu zdobycia wiedzy technicznej oraz certyfikacji w zakresie inżynierii danych w Azure.
- Znajomość narzędzi wizualizacji do tworzenia dashboardów i raportów lub Power Apps jest zaletą.
Znajomość wykorzystywania algorytmów AI/ML (k-NN, Naïve Bayes, SVM, Decision Forests) i frameworków modelowania (PyTorch, TensorFlow, Keras) z użyciem Pythona jest dodatkowym atutem.
Realizacja
- Wspieranie klientów w zdalnej ekstrakcji danych, radzenie sobie ze średnią lub wysoką złożonością i dużymi rozmiarami danych.
- Asystowanie zespołom audytowym poprzez koordynację z zespołami IT klientów i innymi liderami technicznymi podczas procesu ekstrakcji danych.
- Współpraca z zespołami zaangażowanymi w interpretację wyników i przekazywanie wartościowych wniosków audytowych z raportów.
- Opracowywanie transformacji z użyciem Azure Databricks, Azure Data Factory lub Pythona i zarządzanie wszelkimi zmianami w mapowaniu danych oraz dostosowaniami w Databricks przy użyciu kodu PySpark.
- Debugowanie, optymalizacja, dostrajanie wydajności i rozwiązywanie problemów przy ograniczonym nadzorze przy przetwarzaniu dużych zestawów danych, proponowanie możliwych rozwiązań.
- Rekoncylacja danych na wielu war