Компанія: FactSet
Посада: Інженер-програміст
FactSet активно шукає досвідченого інженера-програміста з комплексним досвідом у хмарній архітектурі AWS, впровадженні та обслуговуванні інфраструктури. Ця роль передбачає співпрацю з іншими інженерами для розгортання додатків, інтегрованих з моделями машинного навчання (ML), зосереджених на обробці природної мови (NLP), класифікації та великих мовних моделях (LLM).
Інженер-програміст буде відігравати важливу роль у розробці стратегічної дорожньої карти для управління та розширення існуючих конвеєрів та інфраструктури, що підтримує ML та AI рішення. Основні завдання включають:
- Розгортання та обслуговування ML моделей, баз даних та додатків.
- Підтримка різних AI/ML проектів, включаючи моделювання сутностей та тем, семантичне тегування/збагачення, витяг інформації та інтеграцію LLM у існуючі рамки.
- Створення інформаційних панелей та візуалізацій для фінансових експертів.
- Збір та аналіз як структурованих, так і неструктурованих даних.
- Розробка процесів збору даних, оцінки якості та контролю.
- Ознайомлення з технологічними новинками та поділ за знаннями і захопленнями ML та технологіями з командою.
- Співпраця з іншими інженерними командами для безперервного покращення.
Ідеальний кандидат повинен мати:
- Ступінь бакалавра або магістра в галузі комп'ютерних наук або суміжній галузі.
- Досвід роботи інженером-програмістом понад 5 років.
- Знання AWS та управління хмарною інфраструктурою.
- Досвід у ML та NLP.
- Тверді навички написання та релізу продукційного коду в корпоративному середовищі.
- Сильні аналітичні навички та командний дух.
- Вільне володіння англійською мовою та здатність спілкуватися складними темами з нетехнічними сторонами.
- Висока кваліфікація в Python.
- Знання Docker та розробки API.
- Досвід роботи з різними сервісами AWS (наприклад, SageMaker, S3, Athena, Glue, ECS, EC2).
Додаткові корисні навички включають:
- Досвід роботи з RDF, тройковими збереженнями та вилученням відносин.
- Обробка великих обсягів даних у режимі потоку або пакетної обробки.
- Використання MongoDB.
- Знання бібліотек глибокого навчання (Keras, PyTorch, TensorFlow).
- Досвід роботи з інструментами великої даних (Pyspark, Hive).
- Експертиза в області вилучення інформації, парсингу та сегментації.
- Розуміння онтологій, таксономічного вирішення та розпізнавання.
- Досвід роботи з неконтрольованими методами навчання, включаючи оцінку густоти, кластер