DevOps Engineer - Generative AI Team

Job expired!

Adyen dostarcza płatności, dane i produkty finansowe w ramach jednego rozwiązania dla klientów najwyższego szczebla, takich jak Meta, Uber, H&M i Microsoft. Jako wiodąca platforma technologii finansowej, wszystko, co robimy w Adyen, jest zaprojektowane z myślą o ambicji i innowacyjności.

Adyen poszukuje wykwalifikowanego inżyniera MLOps lub DevOps do dołączenia do naszego zespołu Generative AI w Madrycie. Misją tego zespołu jest stworzenie nowoczesnej platformy Generative AI, wykorzystującej duże modele językowe (LLMs) do zasilania różnych aplikacji. Skupiamy się na opracowywaniu elementów platformy do użytku wewnętrznego i dostarczaniu kompleksowych rozwiązań, które zwiększają wydajność operacyjną. Przykłady użycia, takie jak przypisywanie spraw do działu wsparcia oraz analiza nastrojów, pokazują adaptacyjność AI, rewolucjonizując przepływy pracy w całej naszej organizacji.

  • Współpraca z zespołem w celu projektowania i budowania infrastruktury do obsługi LLMs na miejscu, zapewniającej skalowalność, wydajność i niezawodność.
  • Odpowiedzialność za strategię wdrażania modeli ML do zadań takich jak przypisywanie zgłoszeń, podsumowania, analiza nastrojów i wyszukiwanie odpowiedzi na pytania.
  • Automatyzacja pipeline ML za pomocą narzędzi i praktyk MLOps, optymalizacja pod kątem skalowalności i wydajności.
  • Konteneryzacja aplikacji i zarządzanie wdrożeniami Kubernetes oraz niezbędną infrastrukturą, od GPU po bazy danych wektorowych i komponenty wnioskowania.
  • Opracowywanie najlepszych praktyk dla obserwacji w infrastrukturze LLM, budowanie ram monitorowania zachowań LLM w rzeczywistych warunkach.
  • Projektowanie i implementacja API, usług lub ram ułatwiających bezproblemową integrację i użycie LLMs w różnych aplikacjach i usługach.
  • Aktualizacja wiedzy o najnowszych osiągnięciach w narzędziach i praktykach MLOps.
  • 5+ lat doświadczenia zawodowego jako inżynier DevOps, inżynier MLOps, inżynier ML lub inżynier danych.
  • Silne umiejętności programistyczne, w tym kontrola wersji (np. Git, najlepiej na GitLab), najlepsze praktyki kodowania, debugowanie, testy jednostkowe i integracyjne.
  • Biegłość w Python, Airflow, MLflow, Docker, Kubernetes i ArgoCD.
  • Znajomość narzędzi obserwacyjnych, takich jak Prometheus, Logsearch, Kibana i Grafana.
  • Wiedza na temat ścieżek danych i procesów ETL dla treningu i wnioskowania ML oraz ram rozwoju i wdrażania modeli.
  • Solidne zrozumienie najlepszych praktyk DevOps, pojęć CI/CD i doświadczenie w ich wdrażaniu.
  • Umiejętność diagnozowania i rozwiązywania problemów z wydajnością modeli, skalowalnością i wdrażaniem.
  • Znajomość narzędzi monitorowania do śledzenia wydajności modeli, zużycia zasobów i zdrowia systemu, w tym logowania i monitorowania błędów modeli ML i aplikacji.
  • Znajomość ścieżek ETL z użyciem PySpark i Airflow do przetwarzania danych i treningu modeli.
  • Jasne zrozumienie pełnego cyklu życia uczenia maszynowego.
  • Doświadczenie z Helm do pakowania i wdrażania aplikacji na Kubernetes oraz z Kustomize do zarządzania konfiguracjami Kubernetes.
  • Znaj