O pracę:
Zrób wielki skok w swojej karierze w PradeepIT Consulting Services Pvt Ltd, wiodącej firmie konsultingowej IT, rozpoznawanej na całym świecie za jej doskonałość w łączeniu talentów najwyższej klasy z Indii z klientami na całym świecie. Naszymi partnerami są giganci branży, tacy jak SAP Lab, Bosch, Rolls-Royce, Daikin, Daimler, J&J wśród innych. PradeepIT ma swoją siedzibę w Bengaluru – Dolinie Krzemowej Indii i została uhonorowana jako Wspaniałe Miejsce Pracy.
Jesteśmy dumni z naszych osiągnięć:
- Ponad 6 lat doświadczenia w branży
- 580+ konsultantów w zakresie technologii open source
- 120+ konsultantów SAP
- 40+ konsultantów Salesforce
- 60+ konsultantów Adobe
- 100+ konsultantów ds. mobilności
- 890+ klientów w regionie APAC, EMEA i USA
Nasza misja:
W PradeepIT wierzymy w łączenie globalnych granic, aby łączyć ludzi i zapewniać im możliwość pracy zdalnej. Jako organizacja stawiająca na pierwszym miejscu ludzi, oferujemy przełomowe możliwości pracy z najnowocześniejszymi technologiami i promujemy rozwój umiejętności poprzez kursy prowadzone przez naszych Szefów Pionów i Starszych Architektów, wszystko dostępne poprzez Akademię PradeepIT.
Obowiązki:
- Projektowanie i wdrażanie potoków pobierania danych z wielu źródeł przy użyciu Azure Databricks.
- Tworzenie skalowalnych i wielokrotnego użytku ram dla pobierania zestawów danych.
- Zarządzanie integracją potoków danych od początku do końca, zapewniając jakość i spójność danych.
- Manipulowanie technologiami opartymi na wydarzeniach/strumieniach dla pobierania i przetwarzania danych.
- Współpraca z członkami zespołu w celu wsparcia dodatkowych komponentów projektu takich jak interfejsy API i funkcjonalności wyszukiwania.
- Ocena wydajności narzędzi wobec wymagań klienta, aby zapewnić optymalny dobór i wdrożenie.
Wymagania:
- Licencjat z co najmniej rocznym doświadczeniem w projektowaniu, rozwijaniu, wdrażaniu i wsparciu potoków danych przy użyciu Databricks.
- Ekspertyza w wdrażaniu aplikacji danych na platformach chmurowych takich jak Azure lub AWS.
- Praktyczne doświadczenie w tuningu i optymalizacji kodów w środowiskach Databricks.
- Znajomość Pyspark, Pythona oraz zrozumienie SQL, T-SQL lub PL/SQL.
- Silne zdolności analityczne i umiejętności rozwiązywania problemów, szczególnie w środowisku big data.
- Elastyczność pracy w miejscu lub zdalnie, w zależności od potrzeb projektu.
Skorzystaj z okazji, aby być częścią globalnego zespołu napędzającego innowacje i doskonałość. Aplikuj już dzi