О команде
Модели AI на переднем крае технологий обещают принести выгоду всему человечеству, но в то же время они представляют собой все более серьезные риски. Поэтому мы создали команду, которая поможет нам наиболее эффективно подготовиться к разработке все более продвинутых моделей AI. Эта команда, названная "Профилактика", отвечает непосредственно перед нашим CTO и ее задача - выявление, мониторинг и подготовка к катастрофическим рискам, связанным с моделями AI.
Конкретные цели команды "Профилактика" заключаются в следующем:
1. Внимательно наблюдать и прогнозировать развитие возможностей моделей AI, особенно в отношении рисков злоупотребления, которые могут оказать воздействие.
2. Гарантировать наличие четких процедур, инфраструктуры и партнерств для снижения этих рисков и, в более общем смысле, для безопасного обращения с мощными системами AI.
Наша команда создаст прочные связи между оценкой возможностей, оценками и внутренним анализом на предмет красных флагов для моделей на переднем крае технологий, а также общей координацией по подготовке к AGI. Основная цель команды - обеспечить необходимую инфраструктуру для поддержания безопасности высокоэффективных систем AI - от моделей, которые мы разрабатываем в ближайшем будущем, до моделей с уровнем интеллекта, близким к уровню человека.
О Вас
Мы ищем выдающихся исследовательских инженеров, которые смогут расширить возможности наших передовых моделей. В частности, мы ищем специалистов, которые смогут помочь нам оценить полный спектр вопросов безопасности AI и возьмут на себя ответственность за отдельные аспекты этого процесса от начала до конца.
В ваши обязанности будет входить:
- Выявление новых рисков безопасности AI и разработка новых методологий для исследования воздействия этих рисков
- Разработка (и постоянная корректировка) оценок передовых моделей AI, которые оценивают масштаб идентифицированных рисков
- Создание масштабируемых систем и процессов, которые могут поддерживать эти типы оценок
- Участие в усовершенствовании управления рисками и разработке общепринятых руководящих принципов по оценке безопасности AI
Мы ожидаем, что вы:
- Увлечены и компетентны в вопросах краткосрочных и долгосрочных рисков безопасности AI
- Обладаете способностью к инновационному мышлению и имеете твердо укорененное "красное знамя"
- Имеете опыт работы в ML исследовательской инженерии, наблюдении и мониторинге ML, создании крупномасштабных приложений на основе языковых моделей и/или в другой технической области, имеющей отношение к рисками AI
- Способны эффективно работать в нестабильной и чрезвычайно быстротечной исследовательской среде, а также способны вести проекты от начала до конца
Будет полезно, если у вас есть:
- Практический опыт в системах красного знамя, будь то компьютерные системы или другие
- Хорошее понимание (тонкостей) социальных аспектов внедрения AI
- Способность сотрудничать в разных функциональных областях
- Отличные коммуникационные навыки
Мы предоставляем равные возможности всем соискателям и не дискриминируем на основе расы, религии, национальности, пола, сексуальной ориентации, возраста, статуса ветерана, инвалидности или любого другого законодательно защищенного статуса. Согласно Уставу Сан-Франциско о справедливых шансах, мы рассматриваем кандидатов с судимостью.
Мы обязуемся обеспечить разумные уступки для соискателей с инвалидностью, заявки можно подать по этой ссылке.
Политика конфиденциальности для кандидатов из США в OpenAI
Заработная плата, льготы и привилегии
Общий размер компенсации также включает в себя щедрую долю акций и льготы.
- Медицинское, стоматологическое и зрительное страхование для вас и вашей семьи
- Поддержка в области психического здоровья и благополучия
- Пенсионный план 401(k) с 4% совпадением
- Неограниченный отпуск и более 18 корпоративных праздников в году
- Оплачиваемый отпуск по уходу за ребенком (20 недель) и поддержка при планировании семьи
- Ежегодный предел на обучение и развитие ($1,500 в год)