Research Inference, Tech Lead

Job expired!

À propos de l'équipe

L'équipe Platform ML chez OpenAI joue un rôle clé dans la construction du framework d'apprentissage automatique (ML) qui alimente nos systèmes internes de formation avancés. Nous nous spécialisons dans l'exécution de modèles distribués et dans le perfectionnement des interfaces et du déploiement pour la codification, la formation et les processus d'inférence des modèles. Notre objectif est d'assurer un haut débit de formation et l'optimisation de la production des chercheurs, en nous efforçant d'accélérer les avancées vers l'Intelligence Générale Artificielle (AGI). La collaboration entre diverses équipes est courante, alors que nous travaillons à accélérer de nouvelles capacités.

À propos du rôle

En tant que Technicien Principal expérimenté, vous piloterez des développements cruciaux dans notre pile d'inférence exclusive et jouerez un rôle clé dans l'expansion de l'équipe. Notre objectif est d'améliorer et d'adapter la pile d'inférence, conçue par notre équipe d'ingénierie AI appliquée, pour mieux répondre aux applications de recherche. Ce rôle implique :

  • Atteindre un débit de pointe (SOTA) pour les modèles de recherche clés.
  • Réduire le calendrier pour des implémentations d'inférence efficaces à travers de nouvelles architectures de modèles.
  • Se associer étroitement avec l'équipe d'ingénierie AI appliquée pour maximiser l'utilité de notre pile d'inférence interne avancée.
  • Créer et maintenir une culture de travail qui favorise la diversité, l'équité et l'inclusion, facilitant la communication ouverte et l'innovation.

Pourquoi vous épanouirez ici

Les candidats idéaux pour ce rôle ont généralement :

  • Une expérience prouvée dans les systèmes ML, notamment dans la formation ou l'inférence distribuée à grande échelle pour les modèles de langage de grande taille (LLM) actuels.
  • Une bonne maîtrise des dernières recherches en IA et de la mise en œuvre pratique de systèmes efficaces.
  • Un historique de gestion de projets d'ingénierie à grande échelle du début à la fin.
  • Une expertise dans les technologies centrales de calcul haute performance (HPC) telles que InfiniBand, MPI, CUDA et OpenAI Triton.
  • Une connaissance approfondie des accélérateurs de GPU/materiel et de la performance réseau pour optimiser le débit d'inférence multi-dispositifs.
  • Une approche humble, la volonté d'assister les membres de l'équipe et un engagement pour le succès collectif.

À propos d'OpenAI

OpenAI, une entreprise leader dans la recherche et le déploiement en IA, s'engage à développer une IA à usage général qui bénéficie à toute l'humanité. Nous repoussons les frontières des capacités en IA et assurons le déploiement sûr de ces technologies. Notre mission est guidée par un dévouement à la sécurité, l'inclusivité et les besoins divers des communautés mondiales.

Nous sommes fiers d'être un employeur offrant l'égalité des chances, qui embrasse la diversité et l'inclusivité dans notre équipe. OpenAI ne fait pas de discrimination fondée sur la race, la religion, la couleur, l'origine nationale, le sexe, l'orientation sexuelle, l'âge, le statut matrimonial, le statut de vétéran, ou le statut de handicap et considère les candidats qualifiés avec des antécédents criminels, comme le guide l'Ordonnance de San Francisco sur la Chance Équitable.

Pensez-vous être un bon candidat ? Postulez maintenant pour façonner l'avenir de