Ingénieur de Recherche, Préparation

  • Full Time
Job expired!

À propos de l'équipe

Les modèles d'IA de pointe ont le potentiel de bénéficier à toute l'humanité, mais ils présentent également des risques de plus en plus graves. Pour garantir que l'IA favorise le changement positif, nous avons dédié une équipe à nous aider à nous préparer au mieux pour le développement de modèles d'IA de pointe de plus en plus capables. Cette équipe, Préparation, rend compte directement à notre Directeur Technique et est chargée d'identifier, de suivre et de se préparer aux risques catastrophiques liés aux modèles d'IA de pointe.

Plus précisément, la mission de l'équipe de Préparation est de :

  1. Surveiller de près et prédire l'évolution des capacités des systèmes d'IA de pointe, en gardant un œil sur les risques d'utilisation abusive dont l'impact co
  2. S'assurer que nous avons des procédures concrètes, une infrastructure et des partenariats pour atténuer ces risques et, plus largement, pour gérer en toute sécurité le développement de systèmes d'IA puissants.

Notre équipe reliera étroitement l'évaluation des capacités, les évaluations et la red team interne pour les modèles de pointe, ainsi que la coordination globale sur la préparation de l'AGI. L'objectif principal de l'équipe est de garantir que nous disposons de l'infrastructure nécessaire pour la sécurité des systèmes d'IA très capables - depuis les modèles que nous développons dans un avenir proche jusqu'à ceux dotés de capacités de niveau AGI.

À propos de vous

Nous cherchons à recruter des ingénieurs de recherche exceptionnels qui peuvent repousser les limites de nos modèles de pointe. Plus précisément, nous recherchons des personnes qui nous aideront à façonner notre compréhension empirique de l'ensemble du spectre des préoccupations en matière de sécurité de l'IA et qui seront responsables des fils individuels de cet effort de bout en bout.

Dans ce rôle, vous allez :

  • Travailler sur l'identification des risques de sécurité émergents de l'IA et de nouvelles méthodologies pour explorer l'impact de ces risques
  • Construire (et ensuite affiner en continu) des évaluations des modèles d'IA de pointe qui évaluent l'ampleur des risques identifiés
  • Concevoir et construire des systèmes et des processus évolutifs qui peuvent soutenir ces types d'évaluations
  • Contribuer à l'affinement de la gestion des risques et au développement global des lignes directrices de "meilleures pratiques" pour les évaluations de sécurité de l'IA

Nous vous attendons pour être :

  • Passionné et informé sur les risques de sécurité de l'IA à court et à long terme
  • Capable de penser en dehors du cadre et d'avoir une solide "mentalité de red team"
  • Expérimenté dans la recherche en ingénierie ML, l'observabilité et le suivi ML, la création d'applications activées par les grands modèles linguistiques, et/ou un autre domaine technique applicable au risque de l'IA
  • Capable de fonctionner efficacement dans un environnement de recherche dynamique et très rapide ainsi que de définir et de mener à bien des projets de bout en bout

Il serait formidable que vous ayez aussi :

  • Une expérience directe de la red team de systèmes - qu'il s'agisse de systèmes informatiques ou autres
  • Une bonne compréhension des aspects (nuances) sociétaux du déploiement de l'IA
  • La capacité de travailler de manière transversale
  • D'excellentes compétences en communication

Nous sommes un employeur offrant l'égalité des chances et nous ne faisons pas de discrimination sur la base de la race, de la religion, de l'origine nationale, du sexe, de l'orientation sexuelle, de l'âge, du statut de vétéran, du handicap ou de tout autre statut protégé par la loi. Conformément à l'ordonnance de San Francisco sur les chances équitables, nous prendrons en compte les candidats qualifiés ayant des antécédents d'arrestation et de condamnation.

Nous nous engageons à fournir des accommodements raisonnables aux candidats handicapés, et les demandes peuvent être faites via ce lien.

Politique de confidentialité des candidats d'OpenAI aux États-Unis

Rémunération, avantages et avantages additionnels

La rémunération totale comprend également une part d'équité généreuse et des avantages.

  • Assurance médicale, dentaire et vision pour vous et votre famille
  • Soutien à la santé mentale et au bien-être
  • Plan de retraite 401(k) avec une correspondance de 4%
  • Congés illimités et plus de 18 jours fériés par an
  • Congé parental payé (20 semaines) et soutien à la planification familiale
  • Allocation annuelle pour le développement et l'apprentissage (1 500$ par an)