Starszy Inżynier Wsparcia Technicznego - Spark

  • Full Time
Job expired!

CSQ124R99

Chociaż zachęcamy kandydatów z określonych lokalizacji, jesteśmy otwarci na kandydatów pracujących zdalnie z innych regionów Stanów Zjednoczonych na to stanowisko.

W swojej roli starszego inżyniera wsparcia technicznego, będziesz pomagał naszym klientom w efektywnym korzystaniu z platformy Databricks, rozwiązując krytyczne techniczne eskalacje klientów i asystując zespołowi wsparcia. Będziesz technicznym ogniwem między wsparciem a inżynierią, oraz pierwszą linią obrony dla inżynierii. Upewnisz się, że wszystkie problemy zostaną przejrzane przez ciebie, zanim zostaną przekazane do zespołu inżynieryjnego. Będziesz raportować do Senior Managera Zespołu ds. Eskalacji Wsparcia Technicznego.

Twój wpływ:

  • Rozwiązywanie problemów, rozwiązanie i zasugerowanie szczegółowej analizy kodu Spark w celu poradzenia sobie z skomplikowanymi problemami klientów związanymi z wewnętrznymi elementami Spark, Spark SQL, Strukturalnym Strumieniowaniem i Databricks Delta.
  • Udzielenie wskazówek dotyczących najlepszych praktyk związanych z wydajnością działania Spark oraz korzystania z bibliotek i API Spark dla indywidualnych rozwiązań opracowanych przez klientów Databricks.
  • Pomoc zespołowi wsparcia poprzez opracowanie kompleksowych poradników do rozwiązywania problemów i podręczników procedur.
  • Przyczynienie się do programów automatyki i narzędzi w celu usprawnienia rutynowych zadań związanych z rozwiązywaniem problemów.
  • Współpraca z Zespołem Inżynierii Spark i zwiększanie świadomości na temat nadchodzących funkcji i wydań.
  • Identyfikacja błędów w Spark i proponowanie realnych obejść.
  • Przejmowanie odpowiedzialności i współpraca z zespołami inżynieryjnymi i eskalacji w celu rozwiązania problemów i wymagań klientów.
  • Udział w dyżurach w dni powszednie i w weekendy.

Co szukamy:

  • Minimum 6 lat doświadczenia w tworzeniu, testowaniu i utrzymaniu aplikacji opartych na Pythonie, Javie lub Scali.
  • Umiejętność kompilacji, budowania i eksploracji kodu źródłowego Apache Spark.
  • Umiejętność identyfikacji i implementacji łatek/poprawek błędów do kodu źródłowego Apache Spark.
  • Poprzednie doświadczenie w dużych zbiorach danych/Hadoop/Spark/Kafka/Elasticsearch.
  • Solidne zrozumienie AI & ML przy użyciu Pythona, np. scikit-learn.
  • Zrozumienie ogólnych tematów GenAI, takich jak uczenie modeli językowych i inżynieria promptów.
  • Kompetencje w GQL (GraphQL) i jego zastosowanie w platformach AI.
  • Bezpośrednie doświadczenie z YAML do konfiguracji i reprezentacji danych.
  • Bezpośrednie doświadczenie z systemami baz danych opartymi na SQL.
  • Doświadczenie w JVM, GC, rozwiązywanie problemów na podstawie zrzutu wątków jest obowiązkowe.
  • Doświadczenie z usługami związanymi z AWS lub Azure.
  • Obowiązkowe jest wyższe wykształcenie informatyczne lub pokrewne.

Korzyści

  • Pełne pokrycie zdrowotne, w tym ubezpieczenie medyczne, stomatologiczne i na okulary
  • Plan 401(k)
  • Nagrody w formie udziałów w firmie
  • Elastyczny czas wolny od pracy
  • Płatny urlop rodzicielski
  • Planowanie rodziny
  • Zwrot kosztów siłowni
  • Roczne fundusze na rozwój osobisty
  • Program Pomocy dla Pracowników (EAP)

Transparentność w zakresie wynagrodzenia

Databricks stoi na stanowisku równych i sprawiedliwych praktyk wynagrodzeń. Podane przedziały wynagrodzenia dla tej roli reprezentują bazowy przedział wynagrodzeń dla ról, które nie są prowizyjne, lub docelowe zarobki dla ról, które są prowizyjne. Rzeczywiste pakiety wynagrodzeń zależą od wielu czynników unikalnych dla każdego kandydata, takich jak umiejętności związane z pracą, głębokość profesjonalnego doświadczenia, odpowiednie certyfikaty i szkolenia oraz konkretna lokalizacja pracy. Biorąc pod uwagę te czynniki, Databricks stosuje pełny zakres. Całkowity pakiet wynagrodzeń dla tego stanowiska może również obejmować kwalifikację do rocznej premii za wyniki, udział w zyskach, a także wymienione wyżej korzyści. Aby dowiedzieć się więcej na temat zakresu odpowiedniego dla Twojej lokalizacji, odwiedź naszą stronę tutaj.