Product Manager, ML Platform: Inference

Job expired!

Netflix est le leader mondial des services de divertissement, avec 270 millions d'abonnements payants dans plus de 190 pays. Nos membres apprécient des séries télévisées, des films et des jeux dans de nombreux genres et langues, avec la flexibilité de jouer, mettre en pause et reprendre la visualisation à tout moment et n'importe où, ainsi que la possibilité de changer de plan à tout moment.

En tirant parti de l'apprentissage automatique et de l'intelligence artificielle, Netflix excelle depuis des années dans les recommandations personnalisées et les opérations optimisées. Notre Plateforme d'apprentissage automatique (MLP) stimule les innovations technologiques et améliore la productivité des chercheurs et des ingénieurs en gérant toutes les phases du développement de l'apprentissage automatique, y compris le traitement des données, l'entraînement, l'évaluation, le déploiement et les opérations.

Nous recherchons un responsable de produit hautement technique pour améliorer la productivité des data scientists grâce à des améliorations de la plateforme. Votre mission consiste à élaborer une vision pour l'inférence en apprentissage automatique chez Netflix, en répondant aux besoins des producteurs et des consommateurs de modèles. Vous collaborerez étroitement avec plusieurs équipes d'ingénierie pour développer des solutions de gestion des modèles, d'inférence batch et en ligne, en vous concentrant particulièrement sur la mise à l'échelle de notre infrastructure pour les grands modèles génératifs et l'expansion de l'empreinte ML de Netflix vers l'informatique de périphérie.

Les candidats idéaux possèdent une solide expérience en gestion de produit pour les plateformes AI/ML, une empathie pour les praticiens ML et les ingénieurs d'application, ainsi qu'une compréhension approfondie des modèles de production et de consommation de ML. La familiarité avec les stacks d'applications modernes (informatique en nuage, microservices, outils/procédures DevOps) et les services d'inférence spécifiques à ML (magasins de fonctionnalités, surveillance des modèles) est essentielle. Les candidats doivent faire preuve d'initiative, de solides compétences en communication et d'une capacité prouvée à aligner efficacement des équipes diversifiées.

Ce rôle est basé dans notre bureau de Los Gatos avec un modèle de travail hybride. Nous sommes ouverts aux candidats à distance situés sur la côte ouest des États-Unis, avec des déplacements mensuels requis pour les employés à distance.

  • Élaborer une vision complète de l'inférence en apprentissage automatique chez Netflix, englobant la gestion, l'hébergement et la consommation de modèles.
  • Interagir avec un large éventail de clients pour recueillir et documenter clairement les exigences. Prioriser les feuilles de route en fonction de ces besoins.
  • Conduire l'exécution et l'adoption des outils d'inférence de la plateforme ML auprès des diverses parties prenantes de Netflix, y compris l'ingénierie des consommateurs, l'ingénierie des algorithmes, l'ingénierie du studio et du contenu, et les équipes de data science.
  • Comprendre les divers cas d'utilisation de ML chez Netflix, en définissant des personas et des tâches standards pour l'énumération des exigences.
  • Définir de nouvelles voies de support pour l'IA générative au sein de la plateforme ML.
  • Mesurer régulièrement les indicateurs de succès tels que l'adoption et la productivité des développeurs.
  • Appliquer des compétences techniques, organisationnelles et de communication pour assurer l'alignement des différents groupes.
  • Communiquer régulièrement avec la direction de Netflix et les praticiens de ML.
  • 7+ années d'expérience en gestion de produit technique.
  • Expérience extensive en innovation sur les plateformes ML/AI.
  • Compréhension approfondie des flux de travail de développement ML/AI et des MLOps.
  • Connaissances pratiques des outils ML et des nécessités d'inférence.
  • Familiarité avec les modèles d'application modernes, y compris l'informatique en nuage et DevOps.
  • Connaissances techniques des internes de l'inférence, telles que la gestion des GPU, l'auto-scaling, et le batch/pipelining.
  • Expérience dans la définition, la mesure et l'amélioration de la productivité des développeurs.
  • Capacité de réflexion stratégique et aptitude à diriger une vision pour un