Dołącz do zespołu, który opracowuje oprogramowanie wykorzystywane na całym świecie w sferze sztucznej inteligencji. Współpracuj z wysokiej jakości inżynierami oprogramowania w celu implementacji narzędzi dużej skali, które testują modele i narzędzia do głębokiego uczenia na najpotężniejszych komputerach. Wymagana jest umiejętność pracy w zróżnicowanym, dynamicznym środowisku, a także wykazanie mocnych umiejętności interpersonalnych. Na tym stanowisku będziesz współpracować z wewnętrznymi partnerami, użytkownikami i członkami społeczności open source, aby opracowywać rozwiązania dla budowania, testowania, integracji i wdrażania usług NVIDIA AI i narzędzi do głębokiego uczenia na najpotężniejszych, korporacyjnych klastrach GPU, zdolnych do wykonywania setek Peta FLOPS. Ta rola obejmuje wiele produktów, takich jak PyTorch, TensorFlow, JAX, PaddlePaddle. Będziesz pracować z wewnętrznymi zespołami inżynierskimi, aby wdrożyć i uprzemysłowić modele i usługi AI na dużą skalę, promując adopcję kompleksowych rozwiązań do uczenia maszynowego i głębokiego uczenia w chmurze i lokalnie.
Szukamy osób, które z pasją pomogą nam skalować nasze usługi, platformy, modele i wewnętrzne narzędzia do AI i głębokiego uczenia. Twoim zadaniem będzie implementacja i utrzymanie praktyk, narzędzi i infrastruktury DevOps/MLOps, które umożliwiają naszym zespołom dostarczanie wysokiej jakości oprogramowania w sposób niezawodny i efektywny, przy jednoczesnym zapewnieniu płynnego zarządzania i wdrażania wydań. Czy jesteś gotów na to wyzwanie?
Czym będziesz się zajmować:
Opracowuj, utrzymuj i ulepszaj narzędzia CI/CD do wdrożeń na miejscu i w chmurze naszego oprogramowania, umożliwiaj skomplikowane systemy budowy międzyplatformowej, a także wprowadź inżynierię wydawniczą na najwyższym poziomie do procesu wdrażania platformy i chmury NVIDIA.
Wspieraj platformę do testowania i benchmarkingu Deep Learning z wykorzystaniem standardowych narzędzi branżowych, takich jak Gitlab, GitHub, Jenkins, Docker, Bash oraz własnych narzędzi NVIDIA. Bądź odpowiedzialny za najlepsze praktyki i metodyki budowania, testowania i wdrażania oprogramowania do DL oraz wspieraj użytkowników platformy.
Monitoruj i naprawiaj procesy rozwijania i wdrażania oprogramowania, identyfikuj i rozwiązuj problemy związane z niepowodzeniem budowy, niepowodzeniem testów, jakością kodu i wydajnością, we współpracy z zespołami ds. rozwoju, operacji i zapewnienia jakości.
Tworz dokumentację proponowanych podejść, polityk, formatów danych, przypadków testowych i oczekiwanych wyników w ramach zakresu twoich projektów. Dokumentuj i propaguj je.
Pracuj ramię w ramię z zespołami ds. rozwoju, operacji i zapewnienia jakości, aby ustalić i utrzymać efektywne i niezawodne praktyki, narzędzia i infrastrukturę DevOps, które umożliwiają ciągłą integrację, ciągłą dostawę (CI/CD) i efektywne zarządzanie wydawaniem oprogramowania.
Czego oczekujemy:
Licencjatu lub magistra z nauk komputerowych, architektury komputerowej lub pokrewnej dziedziny technicznej lub równoważnego doświadczenia.
Co najmniej 5 lat doświadczenia zawodowego w inżynierii platform/MLOps/DevOps.
Biegłe umiejętności programowania w Pythonie i bashu.
Biegłość w popularnych narzędziach CI/CD (np. GitLab CI, Jenkins), gicie, Linuxie, w tym praktykach zarządzania, wersjonowania, tworzenia gałęzi, scalania i oznaczania, oraz doświadczenie z narzędziami i procesami zarządzania wydaniami.
Znajomość Docker, usług REST API, Kubernetes, ElasticSearch, HashiCorp Vault i Ansible.
Doświadczenie w pracy z dostawcami chmur (AWS, OCI, GCP).
Duże doświadczenie w zakładaniu, utrzymywaniu i automatyzowaniu systemów ciągłej integracji. Wiedza i entuzjazm dla praktyk DevOps/MLOps. Biegłość w nowoczesnych technikach CI/CD, GitOps i infrastrukturze jako kodzie.
Podstawowe zrozumienie koncepcji treningu i wnioskowania ML/DL.
Solidne zrozumienie zasad testowania oprogramowania, w tym testów jednostkowych, testów integracji i testów end-to-end, oraz doświadczenie z automatycznymi ramami i narzędziami testującymi.
Dobre nawyki komunikacyjne i dokumentacyjne.
Sposoby na wyróżnienie się:
Doświadczenie w tworzeniu potoków integracji, dostawy i wdrożenia dla produktów ML/DL i/lub doświadczenie w pracy z modelami i/lub usługami głębokiego uczenia.
Znajomość systemów obliczeniowych na dużą skalę i platform chmurowych lub doświadczenie z klastrami obliczeniowymi opartymi na HPC i rozwiazaniami do planowania, takimi jak Slurm.
Udowodnione doświadczenie w dostarczaniu rozwiązań dla klientów. Głębokie zrozumienie wdrożeń na dużą skalę i/lub wkład do projektów open source.
Relevantne certyfikacje (np. AWS Certified DevOps Engineer, Linux RedHat, Oracle, etc.) będą dodatkowym atutem.
NVIDIA jest powszechnie uważana za jednego z najbardziej pożądanych pracodawców w branży technologicznej. Mamy szczęście posiadać niektórych z najzdolniejszych i najbardziej kreatywnych pracowników na świecie. Jeśli jesteś innowacyjny i samodzielny, chcielibyśmy usłyszeć od Ciebie!
Zakres wynagrodzenia bazowego wynosi od 144 000 USD do 270 250 USD. Twoje wynagrodzenie bazowe będzie ustalane na podstawie miejsca Twojego zamieszkania, doświadczenia i wynagrodzeń pracowników na podobnych stanowiskach.
Będziesz również miał prawo do udziałów i świadczeń. NVIDIA nieustannie przyjmuje zgłoszenia.