Sobre Appier
Appier es una empresa de software como servicio (SaaS) que utiliza la inteligencia artificial (IA) para potenciar la toma de decisiones empresariales. Fundada en 2012 con la visión de democratizar la IA, la misión de Appier es convertir la IA en ROI haciendo que el software sea inteligente. Appier ahora tiene 17 oficinas en APAC, Europa y EE. UU., y está listada en la Bolsa de Tokio (Número de cotización: 4180). Visita www.appier.com para más información.
Sobre el puesto
Las soluciones de Appier están impulsadas por tecnologías de aprendizaje profundo y aprendizaje automático propias para permitir que cada negocio utilice la IA para convertir datos en información empresarial y decisiones. Como Ingeniero de Software, Backend de Datos, estarás involucrado en ayudar a construir componentes críticos de esta plataforma.
Responsabilidades
- Diseñar, desarrollar y mantener APIs RESTful utilizando Python.
- Construir y gestionar almacenes de datos robustos utilizando Trino/Presto y Pinot.
- Diseñar y desarrollar tuberías de datos usando Apache Airflow y Apache Spark.
- Trabajar estrechamente con equipos multifuncionales para desarrollar herramientas de automatización que agilicen las operaciones diarias.
- Implementar sistemas de monitoreo y alerta de última generación para garantizar un rendimiento y estabilidad óptimos del sistema.
- Responder preguntas de las aplicaciones de manera oportuna y efectiva, asegurando la alta satisfacción del cliente.
- Trabajar en plataformas en la nube como AWS y GCP, aprovechando sus capacidades para optimizar las operaciones de datos.
- Utilizar Kubernetes (k8s) para la orquestación de contenedores para facilitar el despliegue eficiente y la escalabilidad de las aplicaciones.
Sobre ti
[Calificaciones mínimas]
- Grado BS/BA en Informática.
- 3+ años de experiencia en la construcción y operación de sistemas o aplicaciones distribuidas a gran escala
- Experiencia en desarrollo de Kubernetes, Linux/Unix
- Experiencia en la gestión de data lake o almacén de datos
- Experiencia en el desarrollo de estructuras de datos, algoritmos en plataformas de Big Data
- Capacidad para operar de manera efectiva e independiente en un entorno dinámico y fluido
- Capacidad para trabajar en un equipo de ritmo rápido y manejar múltiples tareas y proyectos
- Deseo de cambiar el mundo de una forma enorme al ser un aprendiz y constructor autónomo
[Calificaciones preferidas]
- Contribuir a proyectos de código abierto es un gran plus (por favor incluye tu enlace de github)
- La experiencia trabajando con Python, Scala/Java es un plus
- Experiencia con Hadoop, Hive, Flink, Presto/Trino y sistemas relacionados de big data es un plus
- Experiencia con Public Cloud como AWS o GCP es un plus