Ingeniero de Datos para Análisis, Automatización e IA

  • Full Time
Job expired!

Descripción de la Empresa

¿Quieres que tecnologías beneficiosas sean moldeadas por tus ideas? Ya sea en las áreas de soluciones de movilidad, bienes de consumo, tecnología industrial o energía y tecnología de construcción - con nosotros tendrás la oportunidad de mejorar la calidad de vida en todo el globo. Bienvenido a Bosch.

Descripción del Puesto

Al utilizar métodos de trabajo ágiles, nuestros equipos multiculturales y transfuncionales son el centro de innovación para el proceso de Adquisición a Pago (P2P) para ofrecer a nuestros Socios Comerciales Internos servicios de última generación.

En P2P nos estamos enfocando en: Adquirir para pedir, optimización de la solicitud de compra a pedido de compra, datos maestros del proveedor y datos maestros del material, gestión de facturas y análisis de datos-, Minería de datos- y Robótica. Como ingeniero de datos en GS/P2P Purpose Team Analytics, Automation & AI, eres responsable de:
• Traduces las necesidades del negocio en soluciones técnicas basadas en datos y desarrollas Data Pipelines para el análisis de diversos datos (facturas, órdenes de compra, cotizaciones, etc.);
• Trabajas en la visualización de datos para la transparencia del proceso y seguimiento de KPI;
• Provees consultoría técnica y apoyo a otros equipos en temas de extracción de datos, transformación y SQL;
• Analizas, organizas y combinas datos brutos de diferentes fuentes y los combinas;
• Preparas datos para realizar análisis y reportes de datos complejos y para modelado prescriptivo y predictivo;
• Exploras formas de mejorar la calidad y confiabilidad de los datos e identificas oportunidades para la adquisición de datos;
• Colaborarás estrechamente con científicos de datos y expertos en procesos para crear diferentes productos de datos.

Calificaciones

  • Mínimo de 2-3 años de experiencia como ingeniero de datos o campos relevantes;
  • Habilidades probadas en la construcción de Data Pipelines con Herramientas de ETL;
  • Proficiencia en SQL, Python y herramientas de visualización de datos como PowerBI o Tableau;
  • Experiencia previa en contenerización, desarrollo de API y computación distribuida (Openshift, Kubernetes);
  • Se valora mucho tener conocimiento en cloud Azure o MLOps.