Êtes-vous passionné par les technologies de pointe et les innovations en matière d'IA ? NVIDIA recherche un architecte de solutions d'IA générative dynamique et expérimenté, spécialisé dans la formation de grands modèles de langage (LLMs) et la mise en œuvre de workflows basés sur la pré-formation, le finetuning des LLMs et la génération augmentée par récupération (RAG).
En tant que membre clé de notre équipe de solutions IA, vous jouerez un rôle central dans l'architecture et la fourniture de solutions de pointe utilisant les puissantes technologies d'IA générative de NVIDIA. Ce poste nécessite une compréhension approfondie des modèles de langage, en particulier des LLMs open-source, et une grande maîtrise de la conception et de la mise en œuvre de workflows basés sur RAG.
- Architecturer des solutions d'IA générative de bout en bout axées sur la formation, le déploiement et les workflows RAG des LLMs.
- Collaborer étroitement avec les clients pour comprendre leurs défis commerciaux liés au langage et concevoir des solutions sur mesure.
- Soutenir les activités de pré-vente, y compris les présentations techniques et les démonstrations des capacités des LLMs et RAG.
- Travailler en étroite collaboration avec les équipes d'ingénierie de NVIDIA pour fournir des retours d'expérience et contribuer à l'évolution des logiciels d'IA générative.
- S'engager directement avec les clients/partenaires pour comprendre leurs besoins et défis.
- Diriger des ateliers et des sessions de conception pour définir et affiner les solutions d'IA générative axées sur les LLMs et les workflows RAG.
- Diriger la formation et l'optimisation des grands modèles de langage en utilisant les plateformes matérielles et logicielles de NVIDIA.
- Mettre en œuvre des stratégies pour une formation efficace et efficiente des LLMs afin d'obtenir des performances optimales.
- Concevoir et mettre en œuvre des workflows basés sur RAG pour améliorer la génération de contenu et la récupération d'informations.
- Travailler en étroite collaboration avec les clients pour intégrer les workflows RAG dans leurs applications et systèmes.
- Se tenir au courant des dernières évolutions des modèles de langage et des technologies d'IA générative.
- Fournir un leadership technique et des conseils sur les meilleures pratiques pour la formation des LLMs et la mise en œuvre des solutions basées sur RAG.
- Master ou doctorat en informatique, intelligence artificielle ou expérience équivalente.
- 7-11+ années d'expérience pratique dans un rôle technique en IA, avec un fort accent sur l'IA générative et la formation des grands modèles de langage (LLMs).
- Expérience avérée de déploiement et d'optimisation réussis de modèles LLMs pour l'inférence dans des environnements de production.
- Compréhension approfondie des modèles de langage de pointe, y compris GPT-3, BERT ou des architectures similaires.
- Expertise dans la formation et le finetuning des LLMs en utilisant des frameworks populaires tels que TensorFlow, PyTorch ou Hugging Face Transformers.
- Maîtrise des techniques de déploiement et d'optimisation des modèles pour une inférence efficace sur diverses plateformes matérielles, avec un accent particulier sur les GPU.
- Solide connaissance de l'architecture des clusters GPU et capacité à tirer parti du traitement parallèle pour accélérer la formation et l'inférence des modèles.
- Excellentes compétences en communication et en collaboration avec la capacité d'articuler des concepts techniques complexes aux parties prenantes techniques et non techniques.
- Expérience dans la conduite d'ateliers, de sessions de formation et de présentations de solutions techniques à des publics diversifiés.
- Expérience dans le déploiement de modèles LLMs dans des environnements cloud (e.g., AWS, Azure, GCP) et sur des infrastructures locales.
- Capacité avérée à optimiser les modèles LLMs pour la vitesse d'inférence, l'efficacité mémoire et l'utilisation des ressources.
- Familiarité avec les technologies de conteneurisation (e.g., Docker)