En Popular, ofrecemos una amplia gama de servicios financieros y soluciones que atienden a las comunidades de Puerto Rico, Estados Unidos y las Islas Vírgenes. Nuestros empleados dedicados trabajan incansablemente para ayudar a nuestros clientes a alcanzar sus sueños, ofreciendo soluciones financieras adaptadas a cada etapa de sus vidas. Nuestro compromiso con la innovación, la resiliencia y el apoyo a la comunidad, impulsado por las diversas habilidades y antecedentes de nuestros empleados, subraya nuestros valores fundamentales.
Únete a más de 8,000 profesionales en Puerto Rico, Estados Unidos y las Islas Vírgenes que forman parte del equipo de Popular. ¡Ven y sé parte de nuestra próspera comunidad!
Estamos buscando un Especialista en Ingeniería de Datos para unirse a nuestra división de Ingeniería y Habilitación Analítica dentro del departamento de Datos y Análisis Empresarial. Este rol senior fundamental implica activar servicios de AWS, configurar, validar y desplegar infraestructura en la nube específicamente diseñada para operaciones de análisis y aprendizaje automático. El especialista liderará un equipo de ingenieros de datos y analistas, fomentando una cultura colaborativa para asegurar el procesamiento eficiente de datos y el rendimiento óptimo de los modelos de aprendizaje automático.
- Colaborar con equipos diversos para entregar amplias soluciones de datos y análisis.
- Guiar a un equipo dinámico en la creación, validación e implementación de soluciones avanzadas en la nube para infraestructuras analíticas y de aprendizaje automático.
- Configurar varios componentes de infraestructura en la nube, incluyendo redes, seguridad, almacenamiento, migración y procesamiento de datos, y análisis de gobernanza.
- Supervisar tareas de procesamiento de datos, asegurando que los conjuntos de datos estén preparados para el análisis.
- Formar asociaciones estratégicas con científicos y analistas de datos para las mejoras del entorno en la nube.
- Diseñar, planificar y construir entornos de Snowflake en AWS Cloud.
- Crear aplicaciones de Data Lake y gestionar repositorios de datos basados en la nube.
- Utilizar Terraform o AWS CloudFormation para infraestructura como código.
- Identificar y resolver problemas relacionados con los servicios en la nube, incluyendo configuración, integración y rendimiento.
- Monitorear y refinar modelos de aprendizaje automático para una mejora continua.
- Promover la documentación detallada de datos y su integridad.
- Liderar el establecimiento de entornos de desarrollo de aprendizaje automático asegurando flujos de trabajo eficientes.
- Implementar metodologías de DevOps y DevSecOps para el despliegue de modelos.
- Proveer soporte de alto nivel para sistemas de aprendizaje automático, asegurando un rendimiento óptimo.
- Conducir sesiones de intercambio de conocimientos para mejorar las habilidades del equipo.
- Rastrear indicadores clave de desempeño (KPIs) para impulsar el refinamiento de modelos.
- Desarrollar mejores prácticas, estándares y políticas de gobernanza.
- Licenciatura en Ciencias de la Computación, Ciencia de Datos, Estadística o un campo relacionado; se prefieren títulos avanzados.
- Mínimo 15 años de experiencia implementando plataformas de Datos y Análisis a gran escala en entornos de AWS, Azure o Google Cloud.
- Al menos 5 años de experiencia en análisis de datos, aprendizaje automático o un rol similar de liderazgo.
- Experiencia comprobada en Hadoop, EMR, EKS, ECS, Docker, Kubernetes y Amazon Sagemaker.
- Sólida competencia en Python y/o Apache Spark.
- Experiencia con servicios de AWS, incluyendo EC2, IAM, AWS S3, API, Lambda, SNS y SQS.
- Experiencia en servicios de análisis de AWS como Kinesis, Glue, AWS Batch, EMR, Athena.
- Sólidos conocimientos de Oracle, SQL Server, MySQL y habilidades avanzadas en SQL y PL/SQL.
- Competencia en técnicas de minería de datos y algoritmos de aprendizaje automático.
- Habilidades avanzadas en Python, R, SQL y herramientas de visualización de datos como Tableau o Power BI.
- Experiencia práctica con Hadoop, Spark y otras plataformas de grandes datos.
- Experiencia con marcos de aprendizaje automático como Scikit-learn, TensorFlow, etc.
- Capacidad excepcional para interpretar datos complejos y comunicar insights estratégicamente.