Seldon, establecido en 2014, tiene como objetivo acelerar la adopción del aprendizaje automático para abordar los problemas más desafiantes del mundo, mejorar el rendimiento empresarial y gestionar el riesgo. Nuestra visión es un futuro donde la inteligencia artificial (IA) transforme nuestras vidas, trabajo e interacciones. Estamos dedicados a construir un futuro donde la IA se aproveche de manera responsable y ética tanto por organizaciones empresariales como por la comunidad de código abierto.
A medida que el aprendizaje automático se vuelve integral para todos los negocios conectados, buscamos individuos talentosos para impulsar nuestra misión hacia adelante, ofreciendo un despliegue de aprendizaje automático líder en la industria y realizando contribuciones significativas en el espacio de MLOps.
Nos enorgullece nuestra cultura, construida por nuestro equipo apasionado y talentoso dentro de un espíritu abierto y colaborativo. Operando en la vanguardia tecnológica en un entorno ágil, Seldon ofrece oportunidades únicas para el crecimiento y desarrollo profesional como parte de nuestro equipo, dando forma al futuro con MLOps.
Participarás en nuestra plataforma de MLOps centrada en datos de próxima generación, Seldon Core v2, diseñada para escalar con miles de modelos en producción y construir pipelines de inferencia de ML impulsadas por datos utilizando Kafka. Este emocionante proyecto ofrece la oportunidad de impactar en muchos aspectos técnicos del sistema a medida que se desarrollan.
Responsabilidades:
- Diseñar, construir y extender la plataforma MLOps Core v2 de Seldon, mejorando la fiabilidad, escalabilidad, rendimiento y características de próxima generación.
- Participar en discusiones técnicas sobre arquitectura del sistema y compensaciones en la selección de soluciones.
- Gestionar el desarrollo interno, demostraciones e infraestructura de pruebas para aumentar la productividad del equipo.
- Responder a consultas de clientes e integrar funciones solicitadas dentro de la base de código existente.
- Mantener la calidad del código, reducir la deuda técnica y asegurar la estabilidad del sistema mediante actualizaciones periódicas, pruebas automatizadas y pipelines de CI/CD funcionales.
Habilidades esenciales:
- Título o formación académica superior en un tema científico o de ingeniería o experiencia equivalente.
- Experiencia en arquitectar, implementar y depurar sistemas complejos desde el diseño hasta su finalización.
- Comprensión de los desafíos de los sistemas distribuidos y la arquitectura de microservicios.
- Perfilado, identificación y solución de cuellos de botella del sistema a nivel de componente y de sistema.
- Más de 4 años de experiencia en la industria con un historial como ingeniero backend.
- Alta competencia en Golang.
- Experiencia en la construcción de aplicaciones utilizando Kafka.
- Familiaridad con Kubernetes y el ecosistema de herramientas de Cloud Native.
Habilidades adicionales:
- Familiaridad con Google Cloud Platform (GCP), AWS o Azure.
- Experiencia con el patrón de operador usando Kubebuilder o Operator SDK.
- Contribuciones a proyectos de código abierto.
- Amplia comprensión de la ciencia de datos y el aprendizaje automático o disposición para aprender.
- Conocimientos de trabajo en Python.
Proyectos técnicos de alto perfil
- MLServer: Servidor de aprendizaje automático basado en Python.
- Alibi: Herramienta de explicabilidad de modelos de caja negra.
- Alibi-Detect: Herramienta de detección de desviaciones, adversarios y anomalías.
- LLM-Modules: Servir potentes aplicaciones LLM.
Ubicación:
India (Remoto)
Beneficios:
- Un rol emocionante con un impacto significativo en nuestro producto y crecimiento.
- Puesto predominantemente remoto con equipos híbridos colaborativos en el Reino Unido y EE. UU.
- Compromiso con el aprendizaje y el desarrollo profesional con un presupuesto de £1000 por año para L&D.
- Opciones sobre acciones que te alinean con el éxito a largo plazo de la empresa.*
- Días