Data Engineer | AWS

Job expired!

En Popular, ofrecemos una amplia gama de servicios financieros y soluciones que atienden a las comunidades de Puerto Rico, Estados Unidos y las Islas Vírgenes. Nuestros empleados dedicados trabajan incansablemente para ayudar a nuestros clientes a alcanzar sus sueños, ofreciendo soluciones financieras adaptadas a cada etapa de sus vidas. Nuestro compromiso con la innovación, la resiliencia y el apoyo a la comunidad, impulsado por las diversas habilidades y antecedentes de nuestros empleados, subraya nuestros valores fundamentales.

Únete a más de 8,000 profesionales en Puerto Rico, Estados Unidos y las Islas Vírgenes que forman parte del equipo de Popular. ¡Ven y sé parte de nuestra próspera comunidad!

Estamos buscando un Especialista en Ingeniería de Datos para unirse a nuestra división de Ingeniería y Habilitación Analítica dentro del departamento de Datos y Análisis Empresarial. Este rol senior fundamental implica activar servicios de AWS, configurar, validar y desplegar infraestructura en la nube específicamente diseñada para operaciones de análisis y aprendizaje automático. El especialista liderará un equipo de ingenieros de datos y analistas, fomentando una cultura colaborativa para asegurar el procesamiento eficiente de datos y el rendimiento óptimo de los modelos de aprendizaje automático.

  • Colaborar con equipos diversos para entregar amplias soluciones de datos y análisis.
  • Guiar a un equipo dinámico en la creación, validación e implementación de soluciones avanzadas en la nube para infraestructuras analíticas y de aprendizaje automático.
  • Configurar varios componentes de infraestructura en la nube, incluyendo redes, seguridad, almacenamiento, migración y procesamiento de datos, y análisis de gobernanza.
  • Supervisar tareas de procesamiento de datos, asegurando que los conjuntos de datos estén preparados para el análisis.
  • Formar asociaciones estratégicas con científicos y analistas de datos para las mejoras del entorno en la nube.
  • Diseñar, planificar y construir entornos de Snowflake en AWS Cloud.
  • Crear aplicaciones de Data Lake y gestionar repositorios de datos basados en la nube.
  • Utilizar Terraform o AWS CloudFormation para infraestructura como código.
  • Identificar y resolver problemas relacionados con los servicios en la nube, incluyendo configuración, integración y rendimiento.
  • Monitorear y refinar modelos de aprendizaje automático para una mejora continua.
  • Promover la documentación detallada de datos y su integridad.
  • Liderar el establecimiento de entornos de desarrollo de aprendizaje automático asegurando flujos de trabajo eficientes.
  • Implementar metodologías de DevOps y DevSecOps para el despliegue de modelos.
  • Proveer soporte de alto nivel para sistemas de aprendizaje automático, asegurando un rendimiento óptimo.
  • Conducir sesiones de intercambio de conocimientos para mejorar las habilidades del equipo.
  • Rastrear indicadores clave de desempeño (KPIs) para impulsar el refinamiento de modelos.
  • Desarrollar mejores prácticas, estándares y políticas de gobernanza.
  • Licenciatura en Ciencias de la Computación, Ciencia de Datos, Estadística o un campo relacionado; se prefieren títulos avanzados.
  • Mínimo 15 años de experiencia implementando plataformas de Datos y Análisis a gran escala en entornos de AWS, Azure o Google Cloud.
  • Al menos 5 años de experiencia en análisis de datos, aprendizaje automático o un rol similar de liderazgo.
  • Experiencia comprobada en Hadoop, EMR, EKS, ECS, Docker, Kubernetes y Amazon Sagemaker.
  • Sólida competencia en Python y/o Apache Spark.
  • Experiencia con servicios de AWS, incluyendo EC2, IAM, AWS S3, API, Lambda, SNS y SQS.
  • Experiencia en servicios de análisis de AWS como Kinesis, Glue, AWS Batch, EMR, Athena.
  • Sólidos conocimientos de Oracle, SQL Server, MySQL y habilidades avanzadas en SQL y PL/SQL.
  • Competencia en técnicas de minería de datos y algoritmos de aprendizaje automático.
  • Habilidades avanzadas en Python, R, SQL y herramientas de visualización de datos como Tableau o Power BI.
  • Experiencia práctica con Hadoop, Spark y otras plataformas de grandes datos.
  • Experiencia con marcos de aprendizaje automático como Scikit-learn, TensorFlow, etc.
  • Capacidad excepcional para interpretar datos complejos y comunicar insights estratégicamente.