Adyen dostarcza płatności, dane i produkty finansowe w ramach jednego rozwiązania dla klientów najwyższego szczebla, takich jak Meta, Uber, H&M i Microsoft. Jako wiodąca platforma technologii finansowej, wszystko, co robimy w Adyen, jest zaprojektowane z myślą o ambicji i innowacyjności.
Adyen poszukuje wykwalifikowanego inżyniera MLOps lub DevOps do dołączenia do naszego zespołu Generative AI w Madrycie. Misją tego zespołu jest stworzenie nowoczesnej platformy Generative AI, wykorzystującej duże modele językowe (LLMs) do zasilania różnych aplikacji. Skupiamy się na opracowywaniu elementów platformy do użytku wewnętrznego i dostarczaniu kompleksowych rozwiązań, które zwiększają wydajność operacyjną. Przykłady użycia, takie jak przypisywanie spraw do działu wsparcia oraz analiza nastrojów, pokazują adaptacyjność AI, rewolucjonizując przepływy pracy w całej naszej organizacji.
- Współpraca z zespołem w celu projektowania i budowania infrastruktury do obsługi LLMs na miejscu, zapewniającej skalowalność, wydajność i niezawodność.
- Odpowiedzialność za strategię wdrażania modeli ML do zadań takich jak przypisywanie zgłoszeń, podsumowania, analiza nastrojów i wyszukiwanie odpowiedzi na pytania.
- Automatyzacja pipeline ML za pomocą narzędzi i praktyk MLOps, optymalizacja pod kątem skalowalności i wydajności.
- Konteneryzacja aplikacji i zarządzanie wdrożeniami Kubernetes oraz niezbędną infrastrukturą, od GPU po bazy danych wektorowych i komponenty wnioskowania.
- Opracowywanie najlepszych praktyk dla obserwacji w infrastrukturze LLM, budowanie ram monitorowania zachowań LLM w rzeczywistych warunkach.
- Projektowanie i implementacja API, usług lub ram ułatwiających bezproblemową integrację i użycie LLMs w różnych aplikacjach i usługach.
- Aktualizacja wiedzy o najnowszych osiągnięciach w narzędziach i praktykach MLOps.
- 5+ lat doświadczenia zawodowego jako inżynier DevOps, inżynier MLOps, inżynier ML lub inżynier danych.
- Silne umiejętności programistyczne, w tym kontrola wersji (np. Git, najlepiej na GitLab), najlepsze praktyki kodowania, debugowanie, testy jednostkowe i integracyjne.
- Biegłość w Python, Airflow, MLflow, Docker, Kubernetes i ArgoCD.
- Znajomość narzędzi obserwacyjnych, takich jak Prometheus, Logsearch, Kibana i Grafana.
- Wiedza na temat ścieżek danych i procesów ETL dla treningu i wnioskowania ML oraz ram rozwoju i wdrażania modeli.
- Solidne zrozumienie najlepszych praktyk DevOps, pojęć CI/CD i doświadczenie w ich wdrażaniu.
- Umiejętność diagnozowania i rozwiązywania problemów z wydajnością modeli, skalowalnością i wdrażaniem.
- Znajomość narzędzi monitorowania do śledzenia wydajności modeli, zużycia zasobów i zdrowia systemu, w tym logowania i monitorowania błędów modeli ML i aplikacji.
- Znajomość ścieżek ETL z użyciem PySpark i Airflow do przetwarzania danych i treningu modeli.
- Jasne zrozumienie pełnego cyklu życia uczenia maszynowego.
- Doświadczenie z Helm do pakowania i wdrażania aplikacji na Kubernetes oraz z Kustomize do zarządzania konfiguracjami Kubernetes.
- Znaj