Ingeniero de Software Senior - Big Data

  • Full Time
Job expired!

Descripción de la Empresa

Freshworks facilita y acelera el proceso para que las empresas complazcan a sus clientes y empleados. Lo hacemos adoptando un enfoque innovador para construir y entregar software que es asequible, rápido de implementar y diseñado para el usuario final. Con sede en San Mateo, California, Freshworks cuenta con un equipo global que opera desde 13 ubicaciones a nivel mundial para atender a más de 65,000 empresas, desde startups hasta empresas públicas, que dependen del software como servicio de Freshworks para habilitar una mejor experiencia del cliente (CRM, CX) y la experiencia del empleado (ITSM).

La suite de software en la nube de Freshworks incluye Freshdesk (soporte al cliente omnicanal), Freshsales (automatización de ventas), Freshmarketer (automatización de marketing), Freshservice (servicio de asistencia de TI), Freshchat (bots alimentados por IA), respaldados por Neo, nuestra plataforma subyacente de servicios compartidos.

Freshworks ha aparecido en la prensa nacional global incluyendo CNBC, Forbes, Fortune, Bloomberg y ha sido reconocido como un Mejor Lugar para Trabajar por BuiltIn en San Francisco y Denver durante los últimos 3 años. Las valoraciones de nuestros clientes han otorgado a los productos de Freshworks las calificaciones de Software más valorado de TrustRadius y los premios G2 Best of Awards por Mejor conjunto de características, Mejor valor por el precio y Mejor relación.

Descripción del Puesto

Las responsabilidades principales del rol incluyen:

  • Diseñar y desarrollar un canal de datos en tiempo real para la ingestión de datos para casos de uso de negocios en tiempo real
  • Desarrollar funciones complejas y eficientes para transformar fuentes de datos brutos en componentes poderosos y confiables de nuestro lago de datos
  • Aumentar nuestras capacidades de análisis con canales de datos más rápidos y confiables, y mejores herramientas, manejando petabytes de datos todos los días.
  • Crear y conceptualizar nuevas funcionalidades de plataforma, que puedan ayudar en nuestra misión de hacer que los datos estén disponibles para los usuarios del clúster en todas sus formas, con baja latencia y escalabilidad horizontal.
  • Realizar cambios en nuestra plataforma de datos, refactorizar/rediseñar según sea necesario y diagnosticar problemas en toda la pila técnica.
  • Pensar fuera de la caja para implementar soluciones con nuevos componentes y diversas tecnologías emergentes en AWS, y Open Source para la ejecución exitosa de varios proyectos
  • Optimizar y mejorar las funciones existentes o los procesos de datos para mejorar el rendimiento y la estabilidad.
  • Escribir pruebas unitarias y soportar la integración continua.
  • Estar obsesionado con la calidad y garantizar tiempos de inactividad mínimos en producción.
  • Mentorizar a los compañeros de equipo, compartir información y conocimientos, y ayudar a construir un gran equipo.
  • Monitorear el rendimiento de los trabajos, la gestión del espacio del sistema de archivos/disco, la conectividad del clúster y de la base de datos, los archivos de registro, la gestión de la seguridad/respaldo, y solucionar diversos problemas de los usuarios.
  • Colaborar con equipos interfuncionales y de negocio

Calificaciones

Estamos buscando un candidato con

  • experiencia comprobada en el rol de Ingeniería de Big Data con experiencia práctica en Apache SparkTM (Scala o PySpark preferido) y optimización de rendimiento asociada
  • Conocimiento avanzado de trabajo en SQL y familiaridad de trabajo con una variedad de bases de datos.
  • Conocimiento de trabajo de varias interfaces de API para procesos de extracción de datos en bloque o en tiempo real es imprescindible
  • Experiencia en la construcción y despliegue de una gama de tuberías de ingeniería de datos en producción, incluyendo el uso de las mejores prácticas de automatización para CI/CD
  • Experiencia en la realización de análisis de causa raíz en todos los datos y procesos para responder a preguntas específicas e identificar oportunidades de mejora.
  • Construir procesos de apoyo para la transformación de datos, estructuras de datos, metadatos, dependencia y gestión de la carga de trabajo.
  • Un historial exitoso de manipulación, procesamiento y extracción de valor de grandes conjuntos de datos desconectados.
  • Conocimiento de trabajo de Kafka, Spark, procesamiento de flujos y almacenes de datos 'big data' escalables.
  • Experiencia con soluciones en la nube en AWS
  • Bueno tener conocimientos de ML-ops.
  • Experiencia Preferida: 3-5 Años

Información Adicional