Científico de Investigación de GenAI, Equipo de Evaluación de Modelos y Seguridad

  • Full Time
Job expired!

Descripción de la Empresa

Fundada a finales de 2020 por un pequeño grupo de investigadores en aprendizaje automático, MosaicML permite a las empresas crear modelos de IA de última generación desde cero con sus propios datos. Desde una perspectiva empresarial, MosaicML está comprometida con la creencia de que los modelos de IA de una empresa son tan valiosos como cualquier otra propiedad intelectual central, y que los modelos de IA de alta calidad deberían estar disponibles para todos. Desde una perspectiva científica, MosaicML se compromete a reducir el coste de formación de modelos de última generación - y compartir nuestros conocimientos sobre cómo hacerlo con el mundo - para permitir a todos innovar y crear sus propios modelos.

Ahora parte de Databricks desde julio de 2023 como el equipo GenAI, estamos apasionados por permitir a nuestros clientes resolver los problemas más difíciles del mundo construyendo y ejecutando la mejor plataforma de datos e IA del mundo. Saltamos ante cada oportunidad de resolver desafíos técnicos, esforzándonos por empoderar a nuestros clientes con las mejores capacidades de datos e IA.

Descripción del Trabajo

Como Científico de Investigación en el equipo GenAI en Databricks, serás responsable de mantenerte al día con los últimos avances en aprendizaje profundo y avanzar en la frontera científica creando nuevas técnicas que van más allá del estado del arte. Trabajarás en un equipo colaborativo de investigadores con antecedentes y formación técnica diversos. Y lo más importante, te encantarán nuestros clientes: nuestro objetivo es hacer que nuestros clientes tengan éxito cuando entrenen modelos grandes, y codificamos nuestra experiencia científica en nuestros productos para hacerlo posible.

Específicamente para la evaluación de modelos, trabajarás en el diseño de suites de evaluación motivadas científicamente de alto rendimiento para permitir a nuestros científicos de investigación y a nuestros clientes tomar decisiones críticas cuando entrenen y desplieguen modelos generativos de última generación para texto, imágenes y otros dominios. Tendrás la oportunidad de impulsar el estado del arte en la evaluación del uso de herramientas, la generación de código, RAG, la evaluación de seguridad y toxicidad, y la evaluación basada en modelos. También ayudarás a construir y diseñar sistemas para empoderar a nuestros clientes para construir la próxima generación de evaluaciones para sus modelos generativos específicos del dominio.

Puedes ser un buen candidato si…

  • Te sientes cómodo trabajando con grandes LLMs en la escala de decenas a cientos de miles de millones de parámetros.
  • Tienes sólidos conocimientos de ingeniería y de investigación científica en el procesamiento de texto/datos y ML.
  • Has desplegado sistemas LLM para resolver problemas reales y has diseñado formas ingeniosas para evaluar el rendimiento del sistema.
  • Has trabajado en seguridad, liberación o en equipos rojos de LLMs.
  • Estás apasionado por poner tu trabajo en manos de usuarios reales y, de manera más amplia, democratizar el acceso a la tecnología moderna de IA.
  • Te motiva trabajar en investigaciones de LLM que, en contra de la tendencia general en el campo, se divulgarán al público.
  • Tienes fuertes habilidades de comunicación y un deseo de trabajar en problemas abiertos sobre los cuales tendrás un alto grado de autonomía.

NO se requiere un doctorado para este puesto. Estamos abiertos a contratar candidatos con licenciaturas y maestrías y a nuevos graduados. Estamos abiertos a contratar candidatos que actualmente ocupen puestos de "ingeniero de investigación" en otras empresas. 

Tus Responsabilidades

  • Mantenerse al día con la literatura de investigación y pensar más allá del estado del arte para atender las necesidades de nuestros usuarios.
  • Desarrollar e implementar métodos novedosos para evaluar las capacidades de los modelos generativos para texto, imágenes y otros dominios.
  • Probar rigurosamente estos métodos, comunicar los resultados de tus hallazgos y poner en producción aquellos que sean útiles.

Transparencia del Rango de Salario

Databricks está comprometida con las prácticas de compensación justas y equitativas. La(s) gama(s) de pago para este rol se enumera a continuación y representa la gama de salario base para roles no comisionables o los ingresos objetivo para roles comisionables.  La compensación real está basada en varios factores que son únicos para cada candidato, incluyendo pero no limitado a habilidades relacionadas con el trabajo, profundidad de experiencia, certificaciones y entrenamiento relevante, y ubicación de trabajo específica. Basada en los factores anteriores, Databricks utiliza el ancho completo del rango. El paquete de compensación total para esta posición también puede incluir elegibilidad para bono de rendimiento anual, equidad y los beneficios enumerados arriba. Para más información acerca de qué rango corresponde a tu ubicación, visita nuestra página aquí.