European AI Safety Policy Lead - Technical

Job expired!

Про команду

Місія OpenAI полягає в тому, щоб забезпечити, що штучний інтелект загального призначення приносить користь всьому людству. Ми вважаємо, що для досягнення цієї мети необхідна ефективна взаємодія з зацікавленими сторонами публічної політики та ширшою спільнотою, яка впливає на ШІ. Наша команда з глобальних справ будує автентичні, партнерські стосунки з державними посадовими особами та ширшою спільнотою, що формує політику в сфері ШІ. Це забезпечує, що інсайти від політиків інформують нашу роботу та, у співпраці з колегами та зовнішніми зацікавленими сторонами, допомагають формувати принципи політики, стандарти індустрії та безпечний і корисний розвиток інструментів ШІ.

Про роль

В ролі Лідера політики безпеки ШІ, ви будете залучені до всього спектру питань політики, пов'язаних з безпекою ШІ, та підтримувати команду з глобальних справ технічною експертизою та знаннями про великі мовні моделі (LLMs) та технології ШІ. OpenAI випускає провідні дослідження та інструменти в індустрії, і ви зіткнетеся з новими викликами у міру еволюції впливу передових технологій генеративного ШІ. Ваші щоденні обов'язки будуть варіюватися від формування стратегічних ініціатив та політичних документів до підготовки наших лідерів до зустрічей з урядовими посадовцями або представлення OpenAI на різних форумах.

Ми шукаємо самостійного та креативного фахівця, який поєднує технічний та дослідницький досвід у LLMs та технологіях ШІ із доказаним досвідом взаємодії з політиками, дослідницькими інститутами, академічною спільнотою та громадським суспільством. Ця стратегічна, але практична роль буде частиною команди планування політики та буде тісно співпрацювати з ключовими внутрішніми та зовнішніми партнерами. Ця позиція базується в Лондоні та вимагатиме частих подорожей для зустрічей з ключовими зацікавленими сторонами. Ми пропонуємо допомогу при переїзді для нових співробітників.

Кваліфікації

  • 3-5 років досвіду у (технічних або технічно обґрунтованих) дослідженнях та роботі з політикою в галузі безпеки ШІ.
  • Доведена здатність займатися обговореннями з політиками, регуляторами, громадським суспільством та академічною спільнотою щодо тонких питань безпеки ШІ.
  • Технічний досвід (ідеально - ступінь магістра у ML/ШІ або еквівалентний досвід) із глибоким розумінням LLMs/ШІ та їх безпечного використання.
  • Досвід оцінки ризиків ШІ, безпеки моделей, стійкості, управління, дезінформації/дезінформації та консультування урядів щодо політичних дій.
  • Встановлена мережа та авторитет у спільноті безпеки ШІ в Європі.
  • Здатність оцінювати та розуміти вплив законодавчих та регуляторних пропозицій на дорожню карту продуктів та досліджень OpenAI.

Ідеальні риси кандидата

  • Сильні аналітичні навички та задоволення від праг