Starszy Inżynier Oprogramowania - Big Data

  • Full Time
Job expired!

Opis firmy

Freshworks tworzy bezproblemowy i szybki sposób dla korporacji na zaskoczenie swoich klientów i pracowników. Stosując nowatorskie podejście do tworzenia i dostarczania oprogramowania, które jest w przystępnej cenie, szybko wdrażane i zaprojektowane z myślą o użytkowniku końcowym. Firma z siedzibą w San Mateo, w Kalifornii, kieruje zespołem globalnym z 13 lokalizacji na całym świecie, obsługując ponad 65 000 firm - od start-upów po firmy notowane na giełdzie - które polegają na oprogramowaniu jako usłudze (SaaS) Freshworks, aby zwiększyć satysfakcję swoich klientów (CRM, CX) i pracowników (ITSM).

W ofercie Freshworks znajdują się chmurowe oprogramowania takie jak Freshdesk (wielokanałowe wsparcie klienta), Freshsales (automatyzacja sprzedaży), Freshmarketer (automatyzacja marketingu), Freshservice (pomoc techniczna IT), Freshchat (boty obsługiwane przez AI), a wszystkie te produkty są wspierane przez Neo, naszą bazową platformę usług wspólnych.

Freshworks było prezentowane w międzynarodowej prasie, takiej jak CNBC, Forbes, Fortune, Bloomberg i zostało uznane za świetne miejsce pracy w San Francisco i Denver przez BuiltIn przez ostatnie trzy lata. Nasze produkty zdobyły najwyższe oceny TrustRadius Software i liczne nagrody G2 Best of Awards za najlepszy zestaw funkcji, najlepszą wartość za cenę oraz najlepszy związek.

Opis stanowiska

Podstawowe obowiązki na tym stanowisku to:

  • Inżynieria i konstrukcja w czasie rzeczywistym przepływu danych dla przyjmowania danych dla biznesowych przypadków użycia w czasie rzeczywistym.
  • Projektowanie zaawansowanych i efektywnych funkcji do transformacji surowych źródeł danych w solidne i niezawodne elementy naszego jeziora danych.
  • Rozwinięcie naszych możliwości analitycznych dzięki szybszym, bardziej niezawodnym przepływom danych i zaawansowanym narzędziom, przetwarzającym Petabajty danych codziennie.
  • Innowacja i rozwijanie nowych funkcji platformy, pomagając w naszym dążeniu do uczynienia danych dostępnych dla użytkowników klastra we wszystkich formatach, z niską latencją i skalowalnym wyjściem.
  • Wdrażanie zmian w naszej platformie danych, restrukturyzowanie/projektowanie wedle potrzeb i rozwiązywanie problemów na całym technicznym stosie.
  • Kreatywne myślenie, aby wdrażać rozwiązania z nowymi komponentami i różnymi nowymi technologiami na AWS oraz Open Source dla pomyślnego zakończenia różnych projektów.
  • Poprawa i optymalizacja istniejących funkcji lub procesów danych pod kątem wydajności i stabilności.
  • Pisanie testów jednostkowych i ułatwianie ciągłej integracji.
  • Dbając o wysoką jakość, zapewnienie minimalnych czasów przestoju produkcji.
  • Mentoring, poszerzanie wiedzy kolegów i przyczynianie się do budowania silnego zespołu.
  • Monitorowanie wydajności procesów, zarządzanie systemem plików/przestrzenią na dysku, łącznością klastra i bazy danych, kontrola plików dziennika, zarządzanie kopiami zapasowymi/bezpieczeństwem i zapewnianie rozwiązań dla różnych problemów użytkowników.
  • Współpraca z wielofunkcyjnymi i biznesowymi zespołami.

Kwalifikacje

Szukamy kandydata z

  • doświadczeniem w roli inżyniera Big Data z praktycznymi umiejętnościami w zakresie Apache SparkTM (Scala lub PySpark preferowane) i związaną z nim optymalizacją wydajności.
  • Zaawansowaną praktyczną znajomością SQL i komfortowym obyciem z różnymi bazami danych.
  • Praktyczną wiedzą na temat różnych interfejsów API dla procesów ekstrakcji i ładowania danych w dużych ilościach lub w czasie rzeczywistym.
  • Doświadczeniem w tworzeniu i wdrażaniu różnych przepływów danych inżynieryjnych do produkcji, w tym najlepszych praktyk dotyczących automatyzacji CI/CD.
  • Doświadczeniem w przeprowadzaniu analizy przyczynowej wszystkich danych i procesów w celu odpowiedzi na konkretne pytania i identyfikacji obszarów do poprawy.
  • Znajomością procesów wspomagających transformację danych, struktury danych, metadane, zależności i zarządzanie obciążeniem.
  • Udowodnionym sukcesem w manipulowanie, przetwarzaniu i wydobywaniu wartości z dużych, niepowiązanych zestawów danych.
  • Praktyczną wiedzą na temat Kafka, Spark, przetwarzania strumieniowego i skalowalnych magazynów danych "big data".
  • Doświadczeniem z chmurowymi rozwiązaniami opartymi na AWS
  • Beneficjentem jest posiadanie wiedzy ML-ops
  • Preferowane Doświadczenie: 3-5 lat

Dodatkowe informacje