O Appier
Appier to firma oferująca oprogramowanie jako usługę (SaaS), która wykorzystuje sztuczną inteligencję (AI) do wspierania podejmowania decyzji biznesowych. Założona w 2012 roku z misją udostępnienia AI wszystkim, Appier ma na celu przekształcenie AI w zwrot z inwestycji poprzez zwiększenie intelektu oprogramowania. Obecnie Appier posiada 17 biur na całym świecie, w regionie Azji i Pacyfiku, Europie i USA, a także jest notowana na Giełdzie Papierów Wartościowych w Tokio (numer tickera: 4180). Więcej informacji dostępnych jest na www.appier.com.
O roli
Rozwiązania Appier opracowane są z wykorzystaniem autorskich technologii deep learning i machine learning, które umożliwiają każdej firmie korzystanie z AI do przekształcania danych w wnioski biznesowe i decyzje. Jako Inżynier Oprogramowania, do Twoich obowiązków będzie należało wspomaganie tworzenia kluczowych elementów tej platformy.
Obowiązki
* Projektowanie, tworzenie i utrzymanie RESTful API przy użyciu języka Python.
* Tworzenie i zarządzanie obszernymi magazynami danych za pomocą Trino/Presto i Pinot.
* Projektowanie i tworzenie procesów przepływu danych za pomocą Apache Airflow i Apache Spark.
* Współpraca z zespołami wielofunkcyjnymi w celu opracowania narzędzi automatyzujących codzienne operacje.
* Implementacja nowoczesnych systemów monitorowania i alarmowania, aby zapewnić optymalną wydajność i stabilność systemów.
* Szybkie i efektywne odpowiadanie na pytania dotyczące aplikacji w celu zapewnienia wysokiej satysfakcji klienta.
* Operowanie na platformach chmurowych, takich jak AWS i GCP, w celu optymalizacji operacji związanych z danymi.
* Wykorzystanie Kubernetes (k8s) do orkiestracji kontenerów, co umożliwia efektywne wdrażanie i skalowanie aplikacji.
O Tobie
[Minimalne kwalifikacje]
* Wykształcenie wyższe kierunkowe (informatyka).
* 3+ lat doświadczenia w budowaniu i zarządzaniu dużymi rozproszonymi systemami lub aplikacjami.
* Doświadczenie w pracy z Kubernetes, Linux/Unix.
* Doświadczenie w zarządzaniu danymi typu data lake lub magazynem danych.
* Ekspertyza w dziedzinie tworzenia struktur danych i algorytmów na platformach Big Data.
* Zdolność do samodzielnego i efektywnego działania w dynamicznym środowisku.
* Gotowość do pracy w szybkim tempie w zespole i obsługi wielu zadań i projektów naraz.
* Dążenie do osiągnięcia znaczącego wpływu na świat poprzez samokształcenie i tworzenie.
[Preferowane kwalifikacje]
* Wkład w projekty open-source jest dużym atutem (proszę dołączyć link do Github).
* Doświadczenie w pracy z Python, Scala/Java jest korzystne.
* Doświadczenie z Hadoop, Hive, Flink, Presto/Trino i pokrewnymi systemami Big Data jest pożądane.
* Doświadczenie z Public Cloud, takim jak AWS czy GCP, jest korzystne.