European AI Safety Policy Lead - Technical

Job expired!

О команде

Миссия OpenAI заключается в обеспечении того, чтобы искусственный интеллект общего назначения приносил пользу всему человечеству. Мы считаем, что достижение нашей цели требует эффективного взаимодействия с заинтересованными сторонами в области государственной политики и широкой общественностью, на которую влияет ИИ. Наша команда по глобальным вопросам строит подлинные, сотрудничественные отношения с государственными чиновниками и более широкой политической общиной ИИ. Это гарантирует, что взгляды политиков информируют нашу работу и, в сотрудничестве с нашими коллегами и внешними заинтересованными сторонами, помогают формировать нормативные рамки, отраслевые стандарты и безопасное и полезное развитие инструментов ИИ.

О роли

Как руководитель политики безопасности ИИ, вы будете заниматься полным спектром вопросов политики, связанных с безопасностью ИИ, и поддерживать команду по глобальным вопросам техническими знаниями и опытом в области LLM и технологий ИИ. OpenAI выпускает передовые исследования и инструменты, и вы столкнетесь с новыми вызовами по мере того, как влияние передовых технологий генеративного ИИ продолжает развиваться. Ваши повседневные обязанности будут включать формирование стратегических инициатив и политических документов, подготовку наших лидеров к встречам с государственными чиновниками или представление OpenAI на различных форумах.

Мы ищем самостоятельного и креативного человека, который сочетает техническое и исследовательское образование в области LLM и технологий ИИ с доказанным опытом взаимодействия с политиками, исследовательскими институтами, учеными и гражданским обществом. Эта стратегическая, но практическая роль будет частью команды по планированию политики и будет тесно сотрудничать с ключевыми внутренними и внешними партнерами. Эта должность находится в Лондоне и потребует частых поездок для встреч с ключевыми заинтересованными сторонами. Мы предоставляем помощь в переезде новым сотрудникам.

Квалификация

  • 3-5 лет опыта в (технических или технически обоснованных) исследованиях и политической работе по вопросам безопасности ИИ.
  • Доказанная способность взаимодействовать с политиками, регуляторами, гражданским обществом и учеными по детализированным вопросам безопасности ИИ.
  • Техническое образование (желательно степень магистра в области ML/AI или эквивалентный опыт) с глубоким пониманием LLM/AI и их безопасного развертывания.
  • Опыт оценки рисков ИИ, безопасности моделей, устойчивости, управления, дезинформации/мифов и консультирования правительств по политическим действиям.
  • Установленные сети и авторитет в сообществе по безопасности ИИ в Европе.
  • Способность оценивать и понимать влияние законодательных и нормативных предложений на продуктовую и исследовательскую дорожную карту OpenAI.

Идеальные черты кандидата

  • Сильные аналитические навыки и удовольствие от практической политики создания безопасного и полезного ИИ.
  • Понимание технологий ИИ на уровне инженера с способностью самостоятельно решать технические вопросы (например, читать статьи на arXiv или кодовые базы).
  • Авторитет среди стран-членов ЕС и международных политиков, регуляторов и других заинтересованных сторон.
  • Здравый смысл и выдающаяся личная целостность.
  • Способность процветать в быстрых и гибких условиях.
  • Отличные коммуникативные, презентационные и межличностные навыки, способность объяснять сложные концепции различным аудиториям.
  • Сильные стратегические мышление, навыки решения проблем и управления проектами.
  • Глубокие знания системы принятия решений ЕС, институтов и процессов, а также ключевых вопросов и дебатов по политике ИИ.
  • Успешный опыт работы с межфункциональными командами, особенно инженерными и исследовательскими.
  • Глубокая приверженность общественному влиянию передовых технологий ИИ.