Inżynier Oprogramowania, Dane Backendowe

  • Full Time
Job expired!
O Appier Appier to firma oferująca oprogramowanie jako usługę (SaaS), która wykorzystuje sztuczną inteligencję (AI) do wspierania podejmowania decyzji biznesowych. Założona w 2012 roku z misją udostępnienia AI wszystkim, Appier ma na celu przekształcenie AI w zwrot z inwestycji poprzez zwiększenie intelektu oprogramowania. Obecnie Appier posiada 17 biur na całym świecie, w regionie Azji i Pacyfiku, Europie i USA, a także jest notowana na Giełdzie Papierów Wartościowych w Tokio (numer tickera: 4180). Więcej informacji dostępnych jest na www.appier.com. O roli Rozwiązania Appier opracowane są z wykorzystaniem autorskich technologii deep learning i machine learning, które umożliwiają każdej firmie korzystanie z AI do przekształcania danych w wnioski biznesowe i decyzje. Jako Inżynier Oprogramowania, do Twoich obowiązków będzie należało wspomaganie tworzenia kluczowych elementów tej platformy. Obowiązki * Projektowanie, tworzenie i utrzymanie RESTful API przy użyciu języka Python. * Tworzenie i zarządzanie obszernymi magazynami danych za pomocą Trino/Presto i Pinot. * Projektowanie i tworzenie procesów przepływu danych za pomocą Apache Airflow i Apache Spark. * Współpraca z zespołami wielofunkcyjnymi w celu opracowania narzędzi automatyzujących codzienne operacje. * Implementacja nowoczesnych systemów monitorowania i alarmowania, aby zapewnić optymalną wydajność i stabilność systemów. * Szybkie i efektywne odpowiadanie na pytania dotyczące aplikacji w celu zapewnienia wysokiej satysfakcji klienta. * Operowanie na platformach chmurowych, takich jak AWS i GCP, w celu optymalizacji operacji związanych z danymi. * Wykorzystanie Kubernetes (k8s) do orkiestracji kontenerów, co umożliwia efektywne wdrażanie i skalowanie aplikacji. O Tobie [Minimalne kwalifikacje] * Wykształcenie wyższe kierunkowe (informatyka). * 3+ lat doświadczenia w budowaniu i zarządzaniu dużymi rozproszonymi systemami lub aplikacjami. * Doświadczenie w pracy z Kubernetes, Linux/Unix. * Doświadczenie w zarządzaniu danymi typu data lake lub magazynem danych. * Ekspertyza w dziedzinie tworzenia struktur danych i algorytmów na platformach Big Data. * Zdolność do samodzielnego i efektywnego działania w dynamicznym środowisku. * Gotowość do pracy w szybkim tempie w zespole i obsługi wielu zadań i projektów naraz. * Dążenie do osiągnięcia znaczącego wpływu na świat poprzez samokształcenie i tworzenie. [Preferowane kwalifikacje] * Wkład w projekty open-source jest dużym atutem (proszę dołączyć link do Github). * Doświadczenie w pracy z Python, Scala/Java jest korzystne. * Doświadczenie z Hadoop, Hive, Flink, Presto/Trino i pokrewnymi systemami Big Data jest pożądane. * Doświadczenie z Public Cloud, takim jak AWS czy GCP, jest korzystne.