Инженер-исследователь, подготовка к чрезвычайным ситуациям

  • Full Time
Job expired!
О команде Модели AI на переднем крае технологий обещают принести выгоду всему человечеству, но в то же время они представляют собой все более серьезные риски. Поэтому мы создали команду, которая поможет нам наиболее эффективно подготовиться к разработке все более продвинутых моделей AI. Эта команда, названная "Профилактика", отвечает непосредственно перед нашим CTO и ее задача - выявление, мониторинг и подготовка к катастрофическим рискам, связанным с моделями AI. Конкретные цели команды "Профилактика" заключаются в следующем: 1. Внимательно наблюдать и прогнозировать развитие возможностей моделей AI, особенно в отношении рисков злоупотребления, которые могут оказать воздействие. 2. Гарантировать наличие четких процедур, инфраструктуры и партнерств для снижения этих рисков и, в более общем смысле, для безопасного обращения с мощными системами AI. Наша команда создаст прочные связи между оценкой возможностей, оценками и внутренним анализом на предмет красных флагов для моделей на переднем крае технологий, а также общей координацией по подготовке к AGI. Основная цель команды - обеспечить необходимую инфраструктуру для поддержания безопасности высокоэффективных систем AI - от моделей, которые мы разрабатываем в ближайшем будущем, до моделей с уровнем интеллекта, близким к уровню человека. О Вас Мы ищем выдающихся исследовательских инженеров, которые смогут расширить возможности наших передовых моделей. В частности, мы ищем специалистов, которые смогут помочь нам оценить полный спектр вопросов безопасности AI и возьмут на себя ответственность за отдельные аспекты этого процесса от начала до конца. В ваши обязанности будет входить: - Выявление новых рисков безопасности AI и разработка новых методологий для исследования воздействия этих рисков - Разработка (и постоянная корректировка) оценок передовых моделей AI, которые оценивают масштаб идентифицированных рисков - Создание масштабируемых систем и процессов, которые могут поддерживать эти типы оценок - Участие в усовершенствовании управления рисками и разработке общепринятых руководящих принципов по оценке безопасности AI Мы ожидаем, что вы: - Увлечены и компетентны в вопросах краткосрочных и долгосрочных рисков безопасности AI - Обладаете способностью к инновационному мышлению и имеете твердо укорененное "красное знамя" - Имеете опыт работы в ML исследовательской инженерии, наблюдении и мониторинге ML, создании крупномасштабных приложений на основе языковых моделей и/или в другой технической области, имеющей отношение к рисками AI - Способны эффективно работать в нестабильной и чрезвычайно быстротечной исследовательской среде, а также способны вести проекты от начала до конца Будет полезно, если у вас есть: - Практический опыт в системах красного знамя, будь то компьютерные системы или другие - Хорошее понимание (тонкостей) социальных аспектов внедрения AI - Способность сотрудничать в разных функциональных областях - Отличные коммуникационные навыки Мы предоставляем равные возможности всем соискателям и не дискриминируем на основе расы, религии, национальности, пола, сексуальной ориентации, возраста, статуса ветерана, инвалидности или любого другого законодательно защищенного статуса. Согласно Уставу Сан-Франциско о справедливых шансах, мы рассматриваем кандидатов с судимостью. Мы обязуемся обеспечить разумные уступки для соискателей с инвалидностью, заявки можно подать по этой ссылке. Политика конфиденциальности для кандидатов из США в OpenAI Заработная плата, льготы и привилегии Общий размер компенсации также включает в себя щедрую долю акций и льготы. - Медицинское, стоматологическое и зрительное страхование для вас и вашей семьи - Поддержка в области психического здоровья и благополучия - Пенсионный план 401(k) с 4% совпадением - Неограниченный отпуск и более 18 корпоративных праздников в году - Оплачиваемый отпуск по уходу за ребенком (20 недель) и поддержка при планировании семьи - Ежегодный предел на обучение и развитие ($1,500 в год)