Senior Software Engineer - Bigdata ( Java / Scala / Python , Spark, SQL , AWS)

Job expired!

En Nielsen, promovemos el crecimiento de tu carrera como una asociación, empoderándote para definir tu camino. Únete a nuestro dinámico equipo de casi 14,000 asociados donde formarás parte de una comunidad de apoyo dedicada a tu éxito. Cuando prosperas, nosotros prosperamos. Adopta nuevas iniciativas, explora enfoques innovadores y sueña en grande, para que juntos mejoremos continuamente. Tu excelencia impulsa nuestro futuro.

Como Desarrollador de Software Senior, contribuirás a un equipo de Scrum/DevOps enfocado en analizar, desarrollar, probar y apoyar software de aplicación altamente complejo basado en Big Data. Tu objetivo principal será garantizar que los objetivos del proyecto se alineen con los objetivos del negocio. Colabora estrechamente con tu equipo Scrum y el equipo del programa para probar, desarrollar, refinar e implementar software de calidad en producción utilizando metodologías Agile estándar.

  • Construir soluciones escalables, confiables y rentables para entornos tanto en la nube como locales, con un enfoque en la calidad, los estándares de codificación de mejores prácticas y la rentabilidad.
  • Desarrollar y probar aplicaciones basadas en la nube para sistemas backend nuevos y existentes, facilitando a los equipos de desarrollo en la migración a la nube.
  • Crear código y componentes reutilizables en la plataforma para su uso en múltiples equipos de proyecto.
  • Comprender la arquitectura empresarial en el contexto de plataformas existentes, servicios y dirección estratégica.
  • Implementar soluciones de extremo a extremo con una arquitectura técnica robusta en análisis de Big Data, enfocándose en el rendimiento, calidad, mantenibilidad, costo y capacidad de prueba.
  • Impulsar soluciones innovadoras para establecer componentes comunes, permitiendo la personalización para varios productos.
  • Desarrollar especificaciones de diseño y estrategias continuas de construcción y despliegue para impulsar metodologías Agile.
  • Establecer y gestionar expectativas con consultores involucrados en proyectos.
  • Proporcionar soporte de desarrollo de integración en la nube a diferentes equipos de proyecto.
  • Construir prototipos técnicos rápidos para la validación temprana del cliente de nuevas tecnologías.
  • Colaborar efectivamente con Data Science para traducir metodologías en pipelines de construcción de ingeniería.
  • Trabajar con los propietarios de productos para convertir requisitos comerciales complejos en soluciones técnicas, guiando los procesos de diseño y arquitectura.
  • Mentorar a miembros junior del equipo, ofreciendo orientación y fomentando su desarrollo profesional.
  • Mantenerse informado sobre las últimas tecnologías y metodologías a través de foros de la industria, redes de pares y compromisos con clientes.
  • Promover un ambiente de equipo que enfatiza el aprendizaje continuo y el desarrollo de tecnologías innovadoras a través del esfuerzo colaborativo.

Experiencia en el dominio:

  • Licenciatura en informática o ingeniería con 4-8 años de experiencia en el desarrollo de soluciones de tecnología de la información.
  • Experiencia comprobada en arquitectura e implementación en la nube.
  • Fuertes habilidades analíticas y técnicas para la resolución de problemas.
  • Capacidad para proporcionar soluciones resilientes, escalables y seguras utilizando las mejores prácticas.
  • Más de 3 años de experiencia en Big Data utilizando Apache Spark, desarrollando aplicaciones de procesamiento distribuido y construyendo aplicaciones con infraestructura inmutable en la nube de AWS utilizando tecnologías de automatización como Terraform, Ansible o CloudFormation.
  • Aprendiz rápido con la capacidad de aprender nuevas tecnologías, lenguajes de programación y frameworks rápidamente.

Habilidades técnicas:

  • Experiencia en arquitectura orientada a servicios, Spark Streaming y Git.
  • Competencia en lenguajes de programación y herramientas/servicios: Java o Scala, Big Data, Hadoop, Spark, Spark SQL, Presto/Hive, Cloud (preferiblemente AWS), Docker, RDBMS (como Postgres y/u Oracle), Linux, Scripting en Shell, GitLab y Airflow.
  • Experiencia con Apache Spark Scala para el procesamiento de Big Data.
  • Conocimiento de herramientas de orquestación como Apache Airflow.
  • Dominio del sistema operativo Unix/Linux, comandos, scripting en shell, Python, JSON y YAML.