Estamos buscando un Arquitecto de Datos altamente experimentado y habilidoso para unirse a nuestro equipo. El candidato ideal tendrá entre 12-15 años de experiencia en arquitectura de soluciones de ingeniería de datos, centrado en ELT y cargas de trabajo de PySpark/Hadoop. Además de sólidas habilidades de solución y entrega, el candidato ideal también tendrá una visión sobre el crecimiento del negocio y la gestión de los interesados.
Responsabilidades:
- Diseña e implementa arquitecturas de datos de alto rendimiento, escalables y seguras.
- Trabaja con los interesados del negocio para entender sus necesidades de datos y traducirlas en requisitos técnicos.
- Diseña y desarrolla tuberías y flujos de trabajo de datos utilizando principios ELT y PySpark/Hadoop
- Optimiza las tuberías y flujos de trabajo de datos para rendimiento y eficiencia
- Trabaja con científicos e ingenieros de datos para asegurar que los datos sean accesibles y utilizables para análisis y aprendizaje automático
- Implementa las mejores prácticas de gobernanza y seguridad de datos
- Gestiona y guía a los ingenieros de datos
- Contribuye a la estrategia general de ingeniería de datos y al roadmap
Requerimientos
Calificaciones:
- 12-15 años de experiencia en ingeniería de datos, con un enfoque en cargas de trabajo ELT y PySpark/Hadoop
- Experiencia sólida en el diseño e implementación de arquitecturas de datos de alto rendimiento, escalables y seguras.
- Experiencia en las mejores prácticas de gobernanza y seguridad de datos
- Experiencia en la gestión y guía de ingenieros de datos
- Excelentes habilidades de comunicación e interpersonales
- Capacidad para trabajar de forma independiente y como parte de un equipo
- Fuertes habilidades de resolución de problemas y analíticas
Habilidades deseadas:
- Experiencia con plataformas de computación en la nube como AWS, Azure, o GCP
- Experiencia con tecnologías de big data como Spark, Hadoop, Hive, y Kafka
- Experiencia con almacenamiento de datos y lagos de datos
- Experiencia con prácticas DevOps y MLOps
- Experiencia con ciencia de datos y aprendizaje automático, procesamiento de datos en streaming
- Experiencia con analíticas en tiempo real, herramientas de visualización y de informes de datos