В Microsoft мы ставим перед собой миссию помочь каждому человеку и каждой организации на планете добиться большего. В настоящее время мы ищем высококвалифицированного и увлеченного ученого-исследователя для присоединения к нашей инновационной команде по исследованиям в области ответственного и открытого искусственного интеллекта (ROAR) в рамках Azure Cognitive Services. Это ваш шанс внести вклад в передовую область ответственного искусственного интеллекта (ИИ).
Будучи ученым-исследователем нашей команды ROAR, вы будете играть ключевую роль в пионерских достижениях в области ответственного ИИ. Это включает в себя обеспечение безопасного внедрения технологий ИИ следующего поколения, таких как GPT-4, GPT-4V, DALL-E 3 и далее. Вы также будете способствовать расширению и улучшению нашего службы безопасности контента Azure AI.
- Разработка передовых определений, методологий, алгоритмов и моделей ИИ, сосредоточенных на измерении и снижении рисков ИИ.
- Поддержание глубоких знаний о последних достижениях в области ИИ и вклад в научное сообщество, публикуясь в ведущих изданиях.
- Формулирование и внедрение политик, руководств и лучших практик в области ответственного ИИ по всем стекам технологий ИИ компании Microsoft.
- Обеспечение безопасного внедрения новых функций в службе Azure OpenAI и улучшение службы безопасности контента Azure AI с помощью инновационных технологий обнаружения.
- Решение разнообразных задач безопасности ИИ с помощью творческих подходов, адаптированных к потребностям наших клиентов.
- Степень магистра в соответствующей области И минимум один год связанного опыта исследовательской работы ИЛИ эквивалентный опыт.
- Опыт в области исследования / прикладной науки в области обработки естественного языка, компьютерного зрения, мультимодального анализа, глубокого обучения или машинного обучения.
- Владение Python, Java, C++ и инструментами с открытым исходным кодом, такими как PyTorch. Навыки статистического анализа и визуализации данных.
- Способность соответствовать требованиям Microsoft к прохождению проверки безопасности.
- Публикации на известных конференциях или в журналах по ИИ (например, CVPR).
- Опыт работы с обработкой данных в больших