Pyspark & Databricks certified Developer

Job expired!

O pracę:

Zrób wielki skok w swojej karierze w PradeepIT Consulting Services Pvt Ltd, wiodącej firmie konsultingowej IT, rozpoznawanej na całym świecie za jej doskonałość w łączeniu talentów najwyższej klasy z Indii z klientami na całym świecie. Naszymi partnerami są giganci branży, tacy jak SAP Lab, Bosch, Rolls-Royce, Daikin, Daimler, J&J wśród innych. PradeepIT ma swoją siedzibę w Bengaluru – Dolinie Krzemowej Indii i została uhonorowana jako Wspaniałe Miejsce Pracy.

Jesteśmy dumni z naszych osiągnięć:

  • Ponad 6 lat doświadczenia w branży
  • 580+ konsultantów w zakresie technologii open source
  • 120+ konsultantów SAP
  • 40+ konsultantów Salesforce
  • 60+ konsultantów Adobe
  • 100+ konsultantów ds. mobilności
  • 890+ klientów w regionie APAC, EMEA i USA

Nasza misja:

W PradeepIT wierzymy w łączenie globalnych granic, aby łączyć ludzi i zapewniać im możliwość pracy zdalnej. Jako organizacja stawiająca na pierwszym miejscu ludzi, oferujemy przełomowe możliwości pracy z najnowocześniejszymi technologiami i promujemy rozwój umiejętności poprzez kursy prowadzone przez naszych Szefów Pionów i Starszych Architektów, wszystko dostępne poprzez Akademię PradeepIT.

Obowiązki:

  • Projektowanie i wdrażanie potoków pobierania danych z wielu źródeł przy użyciu Azure Databricks.
  • Tworzenie skalowalnych i wielokrotnego użytku ram dla pobierania zestawów danych.
  • Zarządzanie integracją potoków danych od początku do końca, zapewniając jakość i spójność danych.
  • Manipulowanie technologiami opartymi na wydarzeniach/strumieniach dla pobierania i przetwarzania danych.
  • Współpraca z członkami zespołu w celu wsparcia dodatkowych komponentów projektu takich jak interfejsy API i funkcjonalności wyszukiwania.
  • Ocena wydajności narzędzi wobec wymagań klienta, aby zapewnić optymalny dobór i wdrożenie.

Wymagania:

  • Licencjat z co najmniej rocznym doświadczeniem w projektowaniu, rozwijaniu, wdrażaniu i wsparciu potoków danych przy użyciu Databricks.
  • Ekspertyza w wdrażaniu aplikacji danych na platformach chmurowych takich jak Azure lub AWS.
  • Praktyczne doświadczenie w tuningu i optymalizacji kodów w środowiskach Databricks.
  • Znajomość Pyspark, Pythona oraz zrozumienie SQL, T-SQL lub PL/SQL.
  • Silne zdolności analityczne i umiejętności rozwiązywania problemów, szczególnie w środowisku big data.
  • Elastyczność pracy w miejscu lub zdalnie, w zależności od potrzeb projektu.

Skorzystaj z okazji, aby być częścią globalnego zespołu napędzającego innowacje i doskonałość. Aplikuj już dzi