Opis firmy
Freshworks tworzy bezproblemowy i szybki sposób dla korporacji na zaskoczenie swoich klientów i pracowników. Stosując nowatorskie podejście do tworzenia i dostarczania oprogramowania, które jest w przystępnej cenie, szybko wdrażane i zaprojektowane z myślą o użytkowniku końcowym. Firma z siedzibą w San Mateo, w Kalifornii, kieruje zespołem globalnym z 13 lokalizacji na całym świecie, obsługując ponad 65 000 firm - od start-upów po firmy notowane na giełdzie - które polegają na oprogramowaniu jako usłudze (SaaS) Freshworks, aby zwiększyć satysfakcję swoich klientów (CRM, CX) i pracowników (ITSM).
W ofercie Freshworks znajdują się chmurowe oprogramowania takie jak Freshdesk (wielokanałowe wsparcie klienta), Freshsales (automatyzacja sprzedaży), Freshmarketer (automatyzacja marketingu), Freshservice (pomoc techniczna IT), Freshchat (boty obsługiwane przez AI), a wszystkie te produkty są wspierane przez Neo, naszą bazową platformę usług wspólnych.
Freshworks było prezentowane w międzynarodowej prasie, takiej jak CNBC, Forbes, Fortune, Bloomberg i zostało uznane za świetne miejsce pracy w San Francisco i Denver przez BuiltIn przez ostatnie trzy lata. Nasze produkty zdobyły najwyższe oceny TrustRadius Software i liczne nagrody G2 Best of Awards za najlepszy zestaw funkcji, najlepszą wartość za cenę oraz najlepszy związek.
Opis stanowiska
Podstawowe obowiązki na tym stanowisku to:
- Inżynieria i konstrukcja w czasie rzeczywistym przepływu danych dla przyjmowania danych dla biznesowych przypadków użycia w czasie rzeczywistym.
- Projektowanie zaawansowanych i efektywnych funkcji do transformacji surowych źródeł danych w solidne i niezawodne elementy naszego jeziora danych.
- Rozwinięcie naszych możliwości analitycznych dzięki szybszym, bardziej niezawodnym przepływom danych i zaawansowanym narzędziom, przetwarzającym Petabajty danych codziennie.
- Innowacja i rozwijanie nowych funkcji platformy, pomagając w naszym dążeniu do uczynienia danych dostępnych dla użytkowników klastra we wszystkich formatach, z niską latencją i skalowalnym wyjściem.
- Wdrażanie zmian w naszej platformie danych, restrukturyzowanie/projektowanie wedle potrzeb i rozwiązywanie problemów na całym technicznym stosie.
- Kreatywne myślenie, aby wdrażać rozwiązania z nowymi komponentami i różnymi nowymi technologiami na AWS oraz Open Source dla pomyślnego zakończenia różnych projektów.
- Poprawa i optymalizacja istniejących funkcji lub procesów danych pod kątem wydajności i stabilności.
- Pisanie testów jednostkowych i ułatwianie ciągłej integracji.
- Dbając o wysoką jakość, zapewnienie minimalnych czasów przestoju produkcji.
- Mentoring, poszerzanie wiedzy kolegów i przyczynianie się do budowania silnego zespołu.
- Monitorowanie wydajności procesów, zarządzanie systemem plików/przestrzenią na dysku, łącznością klastra i bazy danych, kontrola plików dziennika, zarządzanie kopiami zapasowymi/bezpieczeństwem i zapewnianie rozwiązań dla różnych problemów użytkowników.
- Współpraca z wielofunkcyjnymi i biznesowymi zespołami.
Kwalifikacje
Szukamy kandydata z
- doświadczeniem w roli inżyniera Big Data z praktycznymi umiejętnościami w zakresie Apache SparkTM (Scala lub PySpark preferowane) i związaną z nim optymalizacją wydajności.
- Zaawansowaną praktyczną znajomością SQL i komfortowym obyciem z różnymi bazami danych.
- Praktyczną wiedzą na temat różnych interfejsów API dla procesów ekstrakcji i ładowania danych w dużych ilościach lub w czasie rzeczywistym.
- Doświadczeniem w tworzeniu i wdrażaniu różnych przepływów danych inżynieryjnych do produkcji, w tym najlepszych praktyk dotyczących automatyzacji CI/CD.
- Doświadczeniem w przeprowadzaniu analizy przyczynowej wszystkich danych i procesów w celu odpowiedzi na konkretne pytania i identyfikacji obszarów do poprawy.
- Znajomością procesów wspomagających transformację danych, struktury danych, metadane, zależności i zarządzanie obciążeniem.
- Udowodnionym sukcesem w manipulowanie, przetwarzaniu i wydobywaniu wartości z dużych, niepowiązanych zestawów danych.
- Praktyczną wiedzą na temat Kafka, Spark, przetwarzania strumieniowego i skalowalnych magazynów danych "big data".
- Doświadczeniem z chmurowymi rozwiązaniami opartymi na AWS
- Beneficjentem jest posiadanie wiedzy ML-ops
- Preferowane Doświadczenie: 3-5 lat
Dodatkowe informacje