Firma: FactSet
Stanowisko: Inżynier Oprogramowania
FactSet aktywnie poszukuje doświadczonego inżyniera oprogramowania z szerokim doświadczeniem w architekturze chmury AWS, wdrażaniu oraz utrzymywaniu infrastruktury. Rola ta wymaga współpracy z innymi inżynierami nad wdrażaniem aplikacji zintegrowanych z modelami uczenia maszynowego (ML), skupionymi na Przetwarzaniu Języka Naturalnego (NLP), klasyfikacji oraz Wielkimi Modelami Językowymi (LLM).
Inżynier Oprogramowania będzie kluczowy w rozwijaniu strategicznej mapy drogowej zarządzania i rozszerzania istniejących potoków i infrastruktury wspierającej rozwiązania ML i AI. Kluczowe zadania obejmują:
- Wdrażanie i utrzymywanie modeli ML, baz danych i aplikacji.
- Wsparcie dla różnych projektów AI/ML, włączając modelowanie encji i tematów, semantyczne tagowanie/wzbogacanie, ekstrakcję informacji oraz integrację LLM do istniejących frameworków.
- Tworzenie pulpitów nawigacyjnych i wizualizacji dla ekspertów finansowych.
- Pobieranie i analizowanie danych zarówno strukturalnych, jak i niestrukturalnych.
- Tworzenie procesów zbierania danych, oceny jakości i kontroli.
- Nadążanie za postępem technologicznym oraz dzielenie się wiedzą i pasją do ML i technologii z zespołem.
- Współpraca z innymi zespołami inżynieryjnymi w celu ciągłego doskonalenia.
Idealny kandydat posiada:
- Licencjat lub magisterium z informatyki lub pokrewnej dziedziny.
- 5+ lat doświadczenia jako inżynier oprogramowania.
- Biegłość w zarządzaniu infrastrukturą opartą na AWS i chmurze.
- Doświadczenie w ML i NLP.
- Solidne doświadczenie w pisaniu i wydawaniu kodu produkcyjnego w środowisku korporacyjnym.
- Silne umiejętności analityczne i nastawienie na pracę zespołową.
- Biegła znajomość języka angielskiego i zdolność komunikowania złożonych kwestii technicznych z osobami nietechnicznymi.
- Wysoka biegłość w Pythonie.
- Znajomość Dockera i rozwoju API.
- Doświadczenie w korzystaniu z różnych usług AWS (np. SageMaker, S3, Athena, Glue, ECS, EC2).
Dodatkowe korzystne umiejętności obejmują:
- Doświadczenie z RDF, triple stores i ekstrakcją relacji.
- Obsługa dużych wolumenów danych w środowiskach przetwarzania strumieniowego lub wsadowego.
- Użycie MongoDB.
- Znajomość bibliotek głębokiego uczenia (Keras, PyTorch, TensorFlow).
- Doświadczenie z narzędziami big data (Pyspark, Hive).
- Znajomość ekstrakcji informacji, parsowania i segmentacji.
- Rozumienie ontologii, rozwiązywania taksonomii i dezaambiguacji.
- Doświadczenie z technikami Uczenia Nienadzorowanego, w tym Estymacją Gęstości, Klasteryzacją i Modelowaniem Tematów.
- Znajomość baz danych grafowych (AWS Neptune, Neo4j).
- Doświadczenie z frameworkami uc