Data Engineer I - Data Engineering

Job expired!

Nuestros miembros del equipo están en el corazón de todo lo que hacemos. En Cencora, estamos unidos en nuestra responsabilidad de crear futuros más saludables, y cada persona aquí es esencial para cumplir con ese propósito. Si deseas marcar la diferencia en el centro de la salud, únete a nuestra empresa innovadora y ayúdanos a mejorar las vidas de las personas y los animales en todas partes. ¡Aplica hoy!

Funciones y Responsabilidades Principales:

  • Trabajar con las partes interesadas del negocio para identificar problemas, oportunidades e iniciativas para las cuales los modelos analíticos pueden proporcionar información que impulse el desarrollo de soluciones.
  • Conceptualizar, diseñar y desarrollar modelos analíticos para abordar problemas complejos de negocios, descubrir conocimientos y identificar oportunidades utilizando un enfoque basado en hipótesis.
  • Traducir datos en información e ideas con análisis de escenarios claros, impacto comercial y planes de ejecución para generar impacto.
  • Colaborar con miembros del equipo para incluir datos precisos y relevantes para modelos de aprendizaje automático, identificar posibles fuentes de datos proxy, y diseñar soluciones de análisis de negocios considerando necesidades futuras, infraestructura y requisitos de seguridad.
  • Realizar análisis de datos y diseñar y desarrollar algoritmos analíticos moderadamente complejos.
  • Modelar y enmarcar escenarios de negocios que impacten procesos y decisiones críticas de la empresa.
  • Colaborar con expertos en la materia para seleccionar fuentes de información relevantes, traduciendo requisitos comerciales en acceso semántico, modelos de datos conceptuales, lógicos y físicos.
  • Ejecutar procedimientos de perfilado de datos y preventivos para mejorar la calidad de los datos; usar tecnología para extraer y analizar datos en bruto.
  • Identificar oportunidades y apoyar el desarrollo de soluciones automatizadas para mejorar la calidad de los datos empresariales.
  • Codificar, probar, depurar y documentar programas complejos y mejorar programas existentes para garantizar que los sistemas de procesamiento de datos cumplan con los requisitos del usuario.
  • Desarrollar especificaciones para informes específicos de cliente y usuario, incluyendo exclusiones de red, circunstancias especiales y elementos de datos personalizados.
  • Identificar áreas complejas para resolver nuevos problemas técnicos y proporcionar soluciones técnicas innovadoras en ciencia de datos y aprendizaje automático.
  • Diseñar, desarrollar, probar, implementar y mantener sistemas de procesamiento de datos.
  • Construir canalizaciones de datos escalables utilizando Azure Data Factory para extraer, transformar y cargar datos estructurados y no estructurados.
  • Implementar almacenamiento seguro y controles de acceso para datos sensibles utilizando Azure Key Vaults.
  • Aprovechar Azure Databricks para tareas avanzadas de análisis, incluyendo trabajos de ETL y flujos de trabajo de aprendizaje automático.
  • Utilizar fundamentos de Spark para optimizar el rendimiento de las tareas de procesamiento de big data.
  • Colaborar con equipos multifuncionales para entender los requisitos comerciales y traducirlos en soluciones técnicas.
  • Garantizar la calidad de los datos implementando controles de validación y mecanismos de manejo de errores adecuados.
  • Trabajar estrechamente con equipos de DevOps para integrar procesos de ingeniería de datos en canalizaciones CI/CD.
  • Monitorizar el rendimiento de las canalizaciones de datos y solucionar cualquier problema que surja.
  • Documentar especificaciones técnicas, procesos y mejores prácticas.
  • Licenciatura en Ciencias de la Computación o un campo relacionado (o experiencia laboral equivalente).
  • Experiencia comprobada como Ingeniero de Datos o un rol similar trabajando en proyectos a gran escala.
  • Experiencia en servicios de Azure como Data Factory, Key Vaults y Databricks (Auto Loader, Unity Catalog, Workflows).
  • Dominio de los fundamentos de Spark para el procesamiento eficiente de big data.
  • Sólidos conocimientos de sistemas de control de versiones como Git/ADO para gestionar cambios en la base de código.
  • Sólida comprensión de SQL para consultas eficientes de bases de datos relacionales.
  • Experiencia con el lenguaje de programación Python para la creación de scripts de procesos ETL y automatización de tareas.
  • Familiaridad con conceptos y prácticas de CI/CD en el contexto de fl