Únete a Zalando como Científico Aplicado Senior en Gestión de Riesgos de Transacciones
En Zalando, nuestra visión es ser el Punto de Partida para la Moda. Nuestro objetivo es ofrecer una experiencia de compra basada en la confianza para más de 50 millones de clientes en 25 mercados europeos y nuestras más de 6,500 marcas asociadas. Para mantener esta confianza, es crucial para nosotros gestionar los riesgos de clientes y compras derivados de actividades fraudulentas en nuestra plataforma de moda.
Con 3.3 millones de artículos de compras, que llevan a cientos de miles de pedidos diarios, aprovechamos el big data y las técnicas avanzadas de aprendizaje automático para predecir y mitigar estos riesgos, asegurando relaciones confiables con nuestros clientes y socios.
Sobre el Rol
Como científico aplicado full-stack en nuestro equipo de Gestión de Riesgos de Transacciones, te unirás a un grupo dinámico y diverso de ingenieros y científicos. Nuestro equipo de análisis es responsable de varios servicios predictivos para proteger otros equipos en el dominio de pago de Zalando. Aquí, trabajarás en proyectos de vanguardia, elevarás los estándares técnicos, mejorarás la excelencia operativa y moldearás nuestros flujos de trabajo.
Responsabilidades
- Desarrollar, desplegar y operar soluciones de aprendizaje automático para detectar, predecir y gestionar riesgos de clientes y compras.
- Prototipar rápidamente y experimentar con modelos de aprendizaje automático para evaluar su aplicabilidad para resolver problemas de investigación, del cliente y de negocio.
- Enfrentar desafíos en el desarrollo de algoritmos y ejecutarlos de manera eficiente en plataformas con recursos limitados.
- Monitorear y optimizar la infraestructura de aprendizaje automático en AWS y Databricks/Spark.
- Realizar análisis exploratorios (ad-hoc) basado en datos grandes (no-/semi-estructurados) para descubrir nuevos comportamientos sospechosos en nuestra plataforma.
- Adoptar un enfoque riguroso en la resolución, realización y documentación de proyectos de investigación.
- Colaborar estrechamente con ingenieros de software, científicos aplicados, analistas de datos, gerentes de producto y especialistas en fraude para abordar problemas de fraude.
- Contribuir a nuestra creciente comunidad científica y promover el intercambio de conocimientos dentro de un entorno de trabajo ágil.
Requisitos
- 3-5 años de experiencia práctica como científico aplicado, desarrollando y produciendo modelos de aprendizaje automático/deep learning en entornos en la nube (preferiblemente AWS).
- Competencia en Python y marcos de aprendizaje automático/deep learning relacionados como Pytorch, Tensorflow, Keras, etc.
- Experiencia en infraestructura y herramientas de aprendizaje automático, incluyendo Databricks, Spark, Flink, AWS SageMaker, S3, EC2, Step Functions y Git.
- Experiencia con almacenamiento, ingestión y transformación de datos, incluyendo la orquestación de flujos de trabajo de aprendizaje automático.
- Pasión por desarrollar código limpio, mantenible y probado.
- Motivación para el desarrollo personal continuo en nuevas tecnologías y servicios de software.
- Capacidad para entender el contexto de negocio donde opera el equipo y los problemas del cliente que se están abordando.
- Fuertes habilidades de comunicación para transmitir decisiones y resultados analíticos/ingenieriles a una audiencia más amplia y no técnica.
Cualificaciones Preferidas
- Experiencia con datos no-/débilmente etiquetados (modelos auto-supervisados, generación de etiquetas sintéticas).
- Experiencia en diseño, desarrollo y operación de microservicios altamente escalables en sistemas distribuidos.
- Conocimiento de despliegue automatizado y monitoreo mediante pipelines de CI/CD (Docker, Kubernetes, etc.).
- Experiencia con altos niveles de automatización de pruebas (unitarias, de componente, de integración).
- Familiaridad con la ejecución y evaluación de despliegues experimentales de aprendizaje automático (canary, blue-green).
- Entendimiento del aprendizaje automático en gráficos, incluyendo detección de comunidades, embeddings de gráficos y redes neuronales en gráficos.
Benef