Lead Data Engineer- Pyspark - Hyderabad

Job expired!

Nombre de la Empresa: Salesforce
Título del Puesto: Ingeniero de Datos Principal - PySpark - Hyderabad
Categoría del Puesto: Ingeniería de Software

Bienvenidos a Salesforce, la Empresa de los Clientes, donde inspiramos el futuro de los negocios con IA, Datos y CRM. Nuestros valores fundamentales ayudan a las empresas de diversas industrias a abrir nuevos caminos y conectarse con los clientes de una manera única. Te empoderamos para ser un Trailblazer, para expandir tus oportunidades de carrera, impulsar el rendimiento y tener un impacto positivo en el mundo.

Si crees que los negocios pueden ser una fuerza para el cambio y que las empresas deben hacerlo bien mientras hacen el bien, estás en el lugar correcto.

Salesforce está experimentando una Transformación Digital para garantizar el éxito del cliente y promover nuestro crecimiento. Un elemento crucial de esta transformación es construir una base de datos robusta para satisfacer nuestras necesidades básicas de marketing a través de conjuntos de datos inteligentes como un servicio.

Estamos buscando un ingeniero de datos experimentado para desarrollar pipelines de datos y métricas para nuestros equipos de ventas y marketing. Colaborarás extensamente con las funciones de marketing para entender sus necesidades, traducirlas en requisitos técnicos y construir pipelines de datos automatizados para generar ideas accionables. El candidato ideal tendrá una sólida experiencia en arquitectura de datos, ETL, SQL y métricas empresariales. La familiaridad con los datos de marketing y ventas es una ventaja significativa.

  • Desarrollar, mejorar y mantener pipelines y flujos de trabajo de datos para datos y métricas de marketing.
  • Colaborar con los equipos de marketing para construir requisitos métricos de datos, desarrollar POCs rápidos y documentar los requisitos funcionales y técnicos.
  • Desarrollar marcos y automatizaciones en los procesos ETL utilizando PySpark y DBT para la ingesta y transformación de datos.
  • Mantener, desplegar y versionar el proceso ETL utilizando GIT CI/CD para DevOps.
  • Analizar métricas y construir ideas de datos para las partes interesadas del negocio.
  • Crear soluciones POC para nuevas métricas de marketing para facilitar la toma de decisiones efectiva.
  • Diseñar y desarrollar marcos de automatización de datos fáciles, repetibles y reutilizables.
  • Gestionar actividades de gestión de datos de extremo a extremo, incluyendo la identificación, linaje e integración de datos; realizar controles de calidad de datos, análisis y presentaciones.
  • Supervisar los planes de inteligencia empresarial y de almacén de datos en todo Marketing.
  • Revisar y validar los diseños lógicos y físicos para asegurar la alineación con la arquitectura de solución y los estándares definidos.
  • Abordar y resolver problemas críticos de manera efectiva.
  • Colaborar con miembros del equipo interno y socios externos para apoyar las necesidades de recopilación de datos, análisis y reporte.
  • Trabajar estrechamente con los equipos de Ciencia de Datos para suministrar los datos necesarios para la producción de modelos.
  • Coordinarse con equipos globales en Norteamérica, EMEA y APAC.
  • Gestionar consultores técnicos según sea necesario.
  • Título Universitario en Ciencias de la Computación o una disciplina relacionada, con más de 7 años de experiencia relevante en ingeniería de datos, modelado, automatización y análisis.
  • Sólidos conocimientos de conceptos de ingeniería de datos, diseños de bases de datos, herramientas asociadas y arquitectura de sistemas.
  • Experiencia como líder técnico/arquitecto de soluciones en un equipo enfocado en el cliente.
  • Fuerte capacidad de colaboración con equipos de Análisis/Ciencia de Datos.
  • Excelentes habilidades interpersonales para fomentar relaciones críticas para el éxito en este rol.
  • Comunicación proactiva, identificación de riesgos y un enfoque auto-motivado para la resolución de problemas.
  • Orientado a resultados, capaz de trabajar de manera independiente y gestionar prioridades cambiantes de manera efectiva.
  • Competencia con Snowflake, tecnologías ETL como PySpark y DBT, SQL, Bash, scripting en Python y pipelines CI/CD utilizando Jenkins u otras herramientas similares.
  • Experiencia con herramientas de visualización de datos como