Participará en emocionantes proyectos que abarcan todo el ciclo de vida de los datos: desde la integración de datos brutos con sistemas primarios y de terceros, hasta el modelado avanzado de datos, la visualización de vanguardia de los datos y el desarrollo de innovadores productos de datos.
Tendrá la oportunidad de aprender a construir y trabajar con pipelines de procesamiento de datos tanto en lotes como en tiempo real. Trabajará en un moderno entorno de almacenamiento de datos en la nube junto a un equipo de compañeros de trabajo diversos, intensos e interesantes. Enlazará con otros departamentos, como producto y tecnología, los verticales clave del negocio, confianza y seguridad, finanzas, entre otros, para habilitar su éxito.
Sus responsabilidades
- Diseñar, implementar y dar soporte al almacenamiento de datos;
- Integraciones de datos brutos con sistemas primarios y de terceros
- Modelado de almacén de datos para capas de datos operativos y de aplicación
- Desarrollo en cluster de Amazon Redshift
- Desarrollo de SQL como parte del flujo de trabajo del equipo ágil
- Diseño e implementación de ETL en Matillion ETL
- Pipelines de datos en tiempo real y aplicaciones utilizando servicios gestionados y sin servidor de AWS, como Lambda, Kinesis, API Gateway, etc.
- Diseño e implementación de productos de datos permitiendo características impulsadas por datos o soluciones de negocios
- Construcción de paneles de datos y visualizaciones avanzadas en Sisense para equipos de datos en la nube (anteriormente conocido como Periscope Data) con un enfoque en la experiencia del usuario, simplicidad y usabilidad
- Trabajar con otros departamentos en productos de datos. Es decir, producto y tecnología, marketing y crecimiento, finanzas, negocio principal, publicidad, entre otros
- Ser parte y contribuir a una fuerte cultura de equipo y la ambición de estar en la vanguardia de los grandes datos
- Evaluar y mejorar la calidad de los datos implementando casos de prueba, alertas y salvaguardas de calidad de los datos
- Vivir los valores del equipo: Más simple. Mejor. Más rápido.
- Fuerte deseo de aprender
Experiencia mínima requerida (obligatoria)
- 1-2 años de experiencia en procesamiento de datos, análisis y resolución de problemas con grandes cantidades de datos;
- Buenas habilidades en SQL con una variedad de tecnologías de almacenamiento de datos relacionales, especialmente en almacenamiento de datos en la nube (por ejemplo, Amazon Redshift, Google BigQuery, Snowflake, Vertica, etc.)
- 1+ años de experiencia con uno o más lenguajes de programación, especialmente Python
- Capacidad de comunicar percepciones y descubrimientos a una audiencia no técnica
- Proficiencia escrita y verbal en inglés
- Espíritu emprendedor y capacidad para pensar creativamente; altamente motivado y automotivado; fuerte curiosidad y deseo de aprendizaje continuo
- Titulación técnica de alta calidad en la Universidad, como ciencias de la computación, ingeniería, matemáticas, física.
Experiencia adicional (gran plus)
- Experiencia trabajando con datos centrados en el cliente a gran escala, preferiblemente en un contexto en línea / de comercio electrónico
- Experiencia con herramientas modernas de ETL de big data (por ejemplo, Matillion)
- Experiencia con el ecosistema de datos de AWS (u otros proveedores de la nube)
- Historial de soluciones de inteligencia de negocios, construcción y escalado de almacenes de datos, y modelado de datos
- Etiquetado, seguimiento e informes con Google Analytics 360
- Conocimiento de los modernos pipelines de datos en tiempo real (por ejemplo, marco sin servidor, lambda, kinesis, etc.)
- Experiencia con plataformas modernas de visualización de datos, como Periscope, Looker, Tableau, Google Data Studio, etc.
- Linux, scripting bash, Javascript, HTML, XML
- Contenedores Docker y Kubernetes
#LI-TM1