Data Domain Architect, Vice President

Job expired!

Únete a nuestro diverso equipo de economistas, estadísticos, ingenieros y otros profesionales de análisis en JPMorgan Chase & Co, dentro del sector de Banca Comunitaria y de Consumidores (CCB). Nos especializamos en modelado cuantitativo, aprovechando uno de los repositorios de datos de consumidores más grandes del mundo. Nuestro equipo colabora estrechamente con varios socios en JPMorgan Chase para tomar decisiones comerciales críticas.

Como Arquitecto de Dominio de Datos en nuestro grupo de Optimización de Decisiones Financieras, estarás a la vanguardia de la colaboración con varias partes interesadas y equipos funcionales. Tu responsabilidad principal será determinar los requisitos de datos y modelos para construir canalizaciones de datos y compilar rutinas complejas de predicción y optimización en paquetes ejecutables de Python para pruebas de QA de prototipos y despliegue en producción.

Este rol ofrece una oportunidad excepcional para aplicar tus habilidades en ciencia de datos, ingeniería de datos y desarrollo de aplicaciones de aprendizaje automático en Python en un entorno dinámico.

  • Construir y compilar canalizaciones de datos, modelos predictivos complejos y rutinas de optimización en paquetes ejecutables para pruebas de QA de prototipos y despliegue en producción.
  • Asistir en ejercicios de pruebas retrospectivas de soluciones para Préstamos Justos y otros interesados clave.
  • Realizar análisis de datos de transacciones con tecnologías de big data en plataformas Cloud y convertir grandes cantidades de datos en información útil.
  • Identificar oportunidades para crear y automatizar análisis repetibles para el negocio.
  • Colaborar con equipos multifuncionales y partes interesadas internas/externas para lograr los objetivos del proyecto.
  • Levantar proactivamente problemas críticos a socios comerciales y tecnológicos.
  • Mantenerse actualizado sobre tendencias de la industria y proporcionar recomendaciones para probar nuevas y emergentes tecnologías.
  • Apoyar los procesos de evaluación tecnológica en curso y proyectos de prueba de concepto.
  • Mentorear y capacitar al personal junior, actuando como un líder de pensamiento.
  • Asegurar la entrega de proyectos dentro de los plazos y satisfacer las necesidades comerciales críticas.
  • Un mínimo de 8 años de experiencia profesional relevante como desarrollador de software, ingeniero de datos/ML, científico de datos o ingeniero de inteligencia empresarial.
  • Licenciatura en Ciencias de la Computación, Ingeniería Financiera, MIS, Matemáticas, Estadística u otro campo cuantitativo.
  • Conocimiento práctico del sector bancario, especialmente en depósitos minoristas, préstamos de autos, tarjetas y préstamos hipotecarios.
  • Habilidades excepcionales para resolver problemas con una clara comprensión de los requisitos comerciales, capaz de comunicar información compleja a audiencias variadas.
  • Altamente orientado a los detalles con un historial probado de entrega de tareas a tiempo.
  • Excelente jugador de equipo con fuertes habilidades interpersonales.
  • Capacidad para multitarea y gestionar múltiples prioridades de manera eficiente.
  • Capaz de trabajar en un entorno de ritmo rápido.
  • Individuo automotivado con una fuerte ética de trabajo.
  • Un historial demostrado de éxito evidenciado por logros profesionales o educativos.
  • Deseo de mantenerse actualizado con los últimos avances en tecnologías de datos en la nube y aprendizaje automático.
  • Dominio de la programación en Python, conceptos de programación orientados a objetos y funcionales, y su aplicación en el procesamiento de datos y aprendizaje automático.
  • Experiencia en el entorno de comandos de shell bash de Linux y Git para el control de versiones.
  • Habilidades avanzadas de SQL para escritura de consultas complejas, manipulación de datos y análisis.
  • Experiencia con el ecosistema Anaconda: Pandas, NumPy, SciPy, e implementación de algoritmos de aprendizaje automático usando TensorFlow y XGBoost.
  • Conocimiento extenso de Apache Spark, con experiencia en la optimización de trabajos de Spark para desempeño dentro de Databricks, y experiencia práctica con entornos AWS EC2, EMR y almacenamiento S3/EFS.
  • Capacidad para usar Tableau y Alteryx para análisis de datos, informes y visualización.
  • Conocimiento de modelado