Nombre de la Empresa: Salesforce
Título del Puesto: Ingeniero de Datos Principal - PySpark - Hyderabad
Categoría del Puesto: Ingeniería de Software
Bienvenidos a Salesforce, la Empresa de los Clientes, donde inspiramos el futuro de los negocios con IA, Datos y CRM. Nuestros valores fundamentales ayudan a las empresas de diversas industrias a abrir nuevos caminos y conectarse con los clientes de una manera única. Te empoderamos para ser un Trailblazer, para expandir tus oportunidades de carrera, impulsar el rendimiento y tener un impacto positivo en el mundo.
Si crees que los negocios pueden ser una fuerza para el cambio y que las empresas deben hacerlo bien mientras hacen el bien, estás en el lugar correcto.
Salesforce está experimentando una Transformación Digital para garantizar el éxito del cliente y promover nuestro crecimiento. Un elemento crucial de esta transformación es construir una base de datos robusta para satisfacer nuestras necesidades básicas de marketing a través de conjuntos de datos inteligentes como un servicio.
Estamos buscando un ingeniero de datos experimentado para desarrollar pipelines de datos y métricas para nuestros equipos de ventas y marketing. Colaborarás extensamente con las funciones de marketing para entender sus necesidades, traducirlas en requisitos técnicos y construir pipelines de datos automatizados para generar ideas accionables. El candidato ideal tendrá una sólida experiencia en arquitectura de datos, ETL, SQL y métricas empresariales. La familiaridad con los datos de marketing y ventas es una ventaja significativa.
- Desarrollar, mejorar y mantener pipelines y flujos de trabajo de datos para datos y métricas de marketing.
- Colaborar con los equipos de marketing para construir requisitos métricos de datos, desarrollar POCs rápidos y documentar los requisitos funcionales y técnicos.
- Desarrollar marcos y automatizaciones en los procesos ETL utilizando PySpark y DBT para la ingesta y transformación de datos.
- Mantener, desplegar y versionar el proceso ETL utilizando GIT CI/CD para DevOps.
- Analizar métricas y construir ideas de datos para las partes interesadas del negocio.
- Crear soluciones POC para nuevas métricas de marketing para facilitar la toma de decisiones efectiva.
- Diseñar y desarrollar marcos de automatización de datos fáciles, repetibles y reutilizables.
- Gestionar actividades de gestión de datos de extremo a extremo, incluyendo la identificación, linaje e integración de datos; realizar controles de calidad de datos, análisis y presentaciones.
- Supervisar los planes de inteligencia empresarial y de almacén de datos en todo Marketing.
- Revisar y validar los diseños lógicos y físicos para asegurar la alineación con la arquitectura de solución y los estándares definidos.
- Abordar y resolver problemas críticos de manera efectiva.
- Colaborar con miembros del equipo interno y socios externos para apoyar las necesidades de recopilación de datos, análisis y reporte.
- Trabajar estrechamente con los equipos de Ciencia de Datos para suministrar los datos necesarios para la producción de modelos.
- Coordinarse con equipos globales en Norteamérica, EMEA y APAC.
- Gestionar consultores técnicos según sea necesario.
- Título Universitario en Ciencias de la Computación o una disciplina relacionada, con más de 7 años de experiencia relevante en ingeniería de datos, modelado, automatización y análisis.
- Sólidos conocimientos de conceptos de ingeniería de datos, diseños de bases de datos, herramientas asociadas y arquitectura de sistemas.
- Experiencia como líder técnico/arquitecto de soluciones en un equipo enfocado en el cliente.
- Fuerte capacidad de colaboración con equipos de Análisis/Ciencia de Datos.
- Excelentes habilidades interpersonales para fomentar relaciones críticas para el éxito en este rol.
- Comunicación proactiva, identificación de riesgos y un enfoque auto-motivado para la resolución de problemas.
- Orientado a resultados, capaz de trabajar de manera independiente y gestionar prioridades cambiantes de manera efectiva.
- Competencia con Snowflake, tecnologías ETL como PySpark y DBT, SQL, Bash, scripting en Python y pipelines CI/CD utilizando Jenkins u otras herramientas similares.
- Experiencia con herramientas de visualización de datos como