Únete a Wrike: La Plataforma Líder de Gestión de Trabajo
Wrike se destaca como la plataforma definitiva de gestión de trabajo diseñada para equipos y organizaciones que buscan colaborar, crear y sobresalir diariamente. Con Wrike, puedes centralizar todos los procesos de trabajo para eliminar la complejidad, aumentar la productividad y permitir que tu equipo se concentre en sus tareas más vitales.
Imaginamos un mundo donde todos sean libres para concentrarse en su trabajo más significativo, juntos.
En Wrike, combinamos experiencias laborales desafiantes y agradables. Como empresa en rápido crecimiento, ofrecemos abundantes oportunidades para el crecimiento profesional. Nuestro equipo talentoso y enérgico, caracterizado por su inteligencia, pasión, amabilidad y profesionalismo, hace que Wrike sea un lugar divertido para trabajar. Si posees estas cualidades, estamos deseando tenerte a bordo.
www.wrike.com
Título: Ingeniero de Datos Experimentado - GCP/AWS, Python, SQL
Ubicación: Remoto/Híbrido
Responsabilidades del Puesto
- Poseer activos de datos y pipeline proporcionando información procesable sobre clientes, productos, GTM y funciones clave del negocio.
- Diseñar, desarrollar y mantener pipelines de datos escalables y transformaciones desde varios sistemas de ingeniería y negocios (e.g., Salesforce/CPQ, NetSuite, Marketo).
- Colaborar con analistas para mejorar los modelos de datos que alimentan las herramientas de inteligencia de negocios, aumentando la accesibilidad de datos y fomentando la adopción de herramientas de BI.
- Desplegar modelos de ML con equipos de ciencia de datos, adhiriéndose a las mejores prácticas del ciclo de vida de ML.
- Implementar procesos y sistemas de gestión de calidad de datos, garantizando la precisión de los datos de producción y el mantenimiento de los SLA.
Requisitos de Experiencia
- Experiencia en la construcción y mantenimiento de pipelines de datos en entornos con alta carga de datos (Ingeniería de Datos, Backend, Ciencia de Datos).
- Fuerte competencia en Python.
- Conocimiento avanzado de SQL y bases de datos relacionales.
- Más de 7 años de experiencia con Soluciones de Almacenamiento de Datos (BigQuery, Redshift, Snowflake, Vertica, etc.).
- Más de 7 años de experiencia con Orquestación de Pipelines de Datos (Airflow, Dagster, Prefect, etc.).
- Competencia en el uso de Git, CI/CD y tecnologías de contenedorización.
- Experiencia con Google Cloud Platform, AWS o Azure.
- Conocimiento en arquitectura de bases de datos.
Habilidades Deseadas
- Experiencia con integraciones significativas de proveedores B2B (Salesforce/CPQ, NetSuite, Marketo, etc.).
- Sólido entendimiento de Modelado de Datos (Kimball, Inmon, SCDs, Data Vault, Anchor).
- Competencia con Bibliotecas de Datos Python (Pandas, SciPy, NumPy, Sci-Kit Learn, TF, PyTorch).
- Experiencia con Herramientas de Calidad de Datos, Monitoreo y Alertas.
- Experiencia con Gobernanza de Datos Empresarial, Gestión de Datos Maestros, Privacidad de Datos y Seguridad (GDPR, CCPA).
- Familiaridad con Tecnologías de Transmisión de Datos y CDC (Google Pub/Sub, Google DataFlow, Apache Kafka, Kafka Streams, Apache Flink, Spark Streaming, etc.).
- Experiencia en la construcción de soluciones analíticas en un entorno B2B SaaS.
- Experiencia en colaboración con equipos de comercialización, ventas, éxito del cliente y marketing.
Habilidades Interpersonales
- Excelentes habilidades de comunicación y colaboración.
- Capacidad para trabajar eficazmente en equipos distribuidos,