Senior Applied Scientist II, Perception

Job expired!

Somos Cruise, un servicio pionero de conducción autónoma dedicado a mejorar las ciudades que amamos. Nuestra misión es crear los vehículos autónomos más avanzados del mundo, conectando de manera segura a las personas con los lugares, cosas y experiencias que valoran. La tecnología de conducción autónoma está lista para salvar vidas, transformar los paisajes urbanos, devolver el tiempo de tránsito y restaurar la libertad de movimiento para muchos.

En Cruise, nuestros vehículos y nuestro lugar de trabajo comparten la misma filosofía: eres libre de ser tú mismo. Fomentamos una cultura que celebra las contribuciones únicas de cada individuo, asegurando que cada empleado pueda rendir al máximo. Diversidad, equidad e inclusión no son solo palabras de moda aquí: son parte integral de nuestra misión.

  • Salario competitivo y beneficios
  • Cobertura médica, dental, de visión, de vida y AD&D
  • Beneficios de salud mental subsidiados
  • Días libres y vacaciones pagadas
  • Licencias parentales, médicas, para cuidado familiar y militares pagadas
  • Programa de igualación 401(k) de Cruise
  • Beneficios de fertilidad
  • Cuenta de Gastos Flexibles para Cuidado de Dependientes
  • Cuenta de Gastos Flexibles y Cuenta de Ahorro para la Salud
  • Programa Perks Wallet para beneficios/perks
  • Plan de beneficios de transporte preimpuestos para empleados locales
  • CruiseFlex, nuestra política de trabajo flexible por ubicación

A través de asociaciones con General Motors y Honda, Cruise se beneficia de forma única de la fabricación completamente integrada a gran escala.

Con el respaldo de gigantes de la industria como GM, Honda, Microsoft, T. Rowe Price y Walmart, tenemos el apoyo financiero y técnico necesario para acelerar nuestro progreso en la tecnología de vehículos autónomos.

Si te apasiona la tecnología de conducción autónoma y su potencial para revolucionar el mundo, te invitamos a postularte para el puesto de Científico Aplicado en Percepción. Incluso si no cumples con todos los requisitos, podrías ser la persona perfecta para nuestro equipo. Este rol se centrará en desarrollar soluciones de software estables y a largo plazo para desafíos complejos utilizando investigación de vanguardia en aprendizaje automático y sensores.

  • Explorar, prototipar, validar e iterar nuevos algoritmos desde una perspectiva de investigación
  • Impulsar esfuerzos para optimizar, supervisar y refinar el rendimiento en carretera de modelos que están a punto de entrar en producción
  • Apoyar a la organización de hardware a través de estudios de sensibilidad para la selección de hardware e investigaciones de arquitectura
  • Defender la ingeniería de calidad desarrollando soluciones robustas en lugar de solo identificar problemas
  • Sólida comprensión de los fundamentos de la visión por computadora
  • Experiencia en el desarrollo y entrenamiento de modelos de ML
  • Capacidad para realizar análisis de principios fundamentales de modelos de percepción y realizar pruebas de sensores de hardware
  • Competencia en ejecutar y reentrenar modelos de percepción de ML y evaluar su rendimiento
  • Capacidad para trabajar de forma independiente y colaborativa, especialmente entre equipos de hardware y percepción
  • Experiencia práctica con datos de sensores y hardware experimental
  • Familiaridad con la física de sensores y diversas modalidades de percepción (lidar, cámaras, radares, sensores ultrasónicos)
  • Competencia en marcos de ML como TensorFlow, Caffe y PyTorch
  • Habilidad en lenguajes de programación como Python y C++
  • Pasión por la tecnología de conducción autónoma y su impacto global
  • Doctorado en aprendizaje automático o ciencias de la computación
  • Experiencia en investigación en cámaras computacionales, sistemas de visión por computadora basados en física o campos relacionados
  • Más de 4 años de experiencia en la industria del Aprendizaje Automático
  • Familiaridad con ROS, OpenCV, Gazebo o PCL
  • Experiencia desplegando algoritmos de percepción en entornos del mundo real