Ingeniero de Operaciones de Datos | Devoteam Maroc Nearshore

  • Full Time
Job expired!

Descripción de la empresa

En Devoteam, somos "Digital Transformakers". El respeto, la franqueza y la pasión animan a nuestra tribu todos los días.

Juntos, ayudamos a nuestros clientes a ganar la batalla digital: desde el asesoramiento hasta la implementación de tecnologías innovadoras, hasta la adopción de usos.

Cloud, Ciberseguridad, Datos, DevOps, Desarrollo Fullstack, Low Code, RPA no tienen secretos para nuestra tribu!

Nuestros 10 000+ colaboradores están certificados, formados y acompañados a diario para enfrentar nuevos desafíos innovadores.

Líder en Cloud, Ciberseguridad y Datos en EMEA, el Grupo Devoteam realizó en 2022 una facturación de 1,036 mil millones de euros y tiene la ambición de duplicarla en los próximos 5 años.

Devoteam Marruecos, un actor de referencia en la experiencia IT durante más de 30 años (350+ consultores), acelera su crecimiento desarrollando sus actividades de experiencia nearshore para satisfacer las necesidades de nuestros clientes franceses, europeos y de Medio Oriente.

¿Estás listo(a) para unirte a nosotros y enfrentar este desafío juntos?

Descripción del puesto

Data Ops Engineer @ Devoteam Data Driven.

En un mundo donde las fuentes de datos están en constante evolución, Devoteam Data Driven ayuda a sus clientes a transformar sus datos en información usable y así hacerlos impactantes para un mayor valor comercial.

Data Driven aborda las 3 grandes dimensiones siguientes: Estrategia de datos, Datos para negocios y Fundamentos de datos en apoyo de la experiencia en sus clientes para hacerlos aún más eficientes y competitivos a diario.

Como parte de los equipos Nearshore de Devoteam Marruecos, te unirás a los equipos de la tribu Data Foundation: un equipo entusiasta de ingenieros de datos, Data Ops, Tech Lead Architects y jefes de proyecto trabajando en las plataformas y el ecosistema de Datos: diseñar, construir y modernizar las plataformas y soluciones de datos, diseñar los pipelines de datos con un enfoque en la agilidad y el DevOps aplicado a los datos.

Y más específicamente, una comunidad de ingenieros/arquitectos de Data Ops expertos en la gestión de las operaciones, automatización, la fiabilidad de los componentes y plataformas de Datos mañana más que hoy “nativamente Cloud” y en su capacidad y disposición para colaborar con los equipos de desarrollo y operaciones.

Serás el eslabón esencial para:

  • Implementar y configurar las infraestructuras necesarias para los pipelines de datos: los clusters de procesamiento de datos (Apache Spark, Cloudera, Databricks, Snowflake, GCP BigQuery, Kafka, Nifi, Starburst …), bases de datos (Elasticsearch, Redis, MongoDB, BigTable, DynamoDB …) y otros componentes (Airflow, Jupyter, RStudio, dbt, Minio, …)
  • Diseñar, desarrollar y mantener los pipelines de integración continua (CI) y despliegue continuo (CD) para automatizar el proceso de despliegue de los componentes de infraestructura
  • Describir y gestionar la infraestructura como código (IaC) utilizando las herramientas Terraform, Ansible y otras para proporcionar un provisionamiento automatizado y reproducible de los recursos
  • Implementar sistemas de monitoreo para rastrear el rendimiento de los pipelines de datos y configurar alertas para notificar en caso de fallos o problemas de rendimiento
  • Analizar y mejorar el rendimiento de los pipelines de datos identificando cuellos de botella, ajustando las configuraciones e implementando optimizaciones
  • Implementar sistemas de monitoreo para rastrear las métricas de rendimiento, detectar anomalías y activar alertas en caso de problemas utilizando herramientas como Prometheus, Grafana y otras
  • Establecer sistemas de gestión de logs para recoger, almacenar y analizar los logs de las aplicaciones y las infraestructuras
  • Colaborar con los equipos de Seguridad en la implementación de las mejores prácticas de seguridad incluyendo la gestión de secretos, los métodos de acceso RBAC/ABAC y de anonimización/cifrado de datos, la configuración de las políticas de seguridad y privacidad incluyendo el RGPD y si es necesario participar en las posibles auditorías de seguridad
  • Garantizar la disponibilidad, el rendimiento y la fiabilidad de los servicios mediante el diseño y la implementación de arquitecturas robustas y resistentes complementadas con pruebas de carga
  • Supervisar el uso de los recursos y gestionar la planificación de la capacidad para hacer frente a los aumentos de carga mientras se optimiza el uso de los recursos existentes
  • Implementar mecanismos de auto-escalado para ajustar dinámicamente los recursos a asignar en función de la carga de trabajo
  • Asegurar el MCO de la infraestructura y los componentes de Datos desplegados incluyendo la gestión de las actualizaciones, los parches de seguridad y la resolución proactiva de problemas
  • Mantener una documentación precisa de las configuraciones, los procedimientos de los pipelines de datos y las mejores prácticas para el despliegue y la comprensión y colaboración dentro del equipo
  • Trabajar en estrecha colaboración con los equipos de desarrollo para integrar las prácticas DevOps en el ciclo de vida del desarrollo de software
  • Identificar, diagnosticar y resolver rápidamente los problemas operativos incluyendo la implementación de prácticas de mantenimiento preventivo para evitar fallos imprevistos y asegurar la disponibilidad continua de los pipelines
  • Evaluar e implementar estrategias de optimización de costos relacionados con la infraestructura y los recursos utilizados
  • Trabajar en estrecha colaboración con los equipos de desarrollo, analistas y científicos de datos para entender los requisitos y asegurar que los componentes desplegados satisfacen sus necesidades
  • Implementar mecanismos de linaje y catálogo de datos y despliegue de soluciones para garantizar la calidad de los datos, su trazabilidad a través de las diferentes etapas del procesamiento en cumplimiento de las normas de seguridad y privacidad

Harás pleno uso de tus fundamentos técnicos, tu conocimiento de las actividades de [Ingeniero de Fiabilidad del Sitio] aplicadas a los datos, las plataformas y componentes de los datos y, sobre todo, afirmando tu voluntad de comprender las necesidades y la oferta de servicios en los que trabajarás.

Tu terreno de juego: la distribución, la energía, las finanzas, la industria, la salud y los transportes con un montón de casos de uso y nuevos desafíos de datos a enfrentar juntos, especialmente la Data en la Nube.

Lo que esperamos de ti.

  • Que creas en los datos y en el DevOps
  • Que ayudes a tu colega
  • Que seas amable con tus RRHH
  • Que disfrutes de tu misión
  • Y que los juegos de codificación no te asusten (no estarás solo: te ayudaremos)

Y más seriamente:

  • Que manejes las plataformas y componentes de datos comúnmente desplegados en el procesamiento, análisis y exposición de datos
  • Que apliques también los requisitos fundamentales de un ingeniero SRE: la automatización, la supervisión, la fiabilidad y la colaboración interfuncional para garantizar el éxito operacional de los servicios
  • Que desees invertir en los nuevos paradigmas de los datos y del DevOps SRE: Cloud, DaaS, SaaS, DataOps, AutoML y que te comprometas con nosotros en esta aventura
  • Que te guste trabajar en modo ágil
  • Que realices con asiduidad y rigor las actividades solicitadas
  • Que mantengas esta doble competencia Infra & Dev
  • Que estés cerca de los clientes y las partes interesadas, que los acompañes en la definición de sus nuevas necesidades y servicios: en talleres, definiendo las user stories y probando a través de POC
  • Y que la automatización sea parte de tus drivers y seas un promotor convencido: trabajas tu código, te comprometes en Open Source, haces un poco de competencia, entonces únete a nosotros

Lo que te aportaremos.

  • Un manager a tu lado en todo momento
  • Una comunidad de Datos donde encontrarás tu lugar: Ideation Lab, Hackathon, Meetup...
  • Un camino de formación y certificación a través de "myDevoteam Academy" en las tecnologías del momento y las futuras: Databricks, Spark, Azure Data, Elastic.io, Kafka, Snowflake, GCP BigQuery, dbt, Ansible, Docker, k8s...
  • Un refuerzo de tu expertise en el campo de los Datos para convertirte en un Tech Lead Cloud (Azure, AWS, GCP...), un arquitecto de las futuras plataformas de Datos, un experto en DataOps al servicio de los negocios (Data as a Service) y de la Ciencia de los Datos (AutoML), un Data Office Manager en la gestión de los proyectos Data Product, en fin, muchos nuevos trabajos en perspectiva...
  • La posibilidad de implicarte personalmente: ser formador interno, líder de comunidad, participar en las entrevistas de candidatos, ayudar a desarrollar nuestras ofertas y por qué no, dirigir tu propio equipo...

Algunos ejemplos de misiones.

  • El diseño, la implementación y el soporte de los pipelines de datos
  • El despliegue de soluciones de datos en un enfoque Agile y DevOps
  • El desarrollo de API REST para exponer los datos
  • El soporte y la expertise en tecnologías de datos y soluciones desplegadas: Hadoop, Spark, Kafka, Elasticsearch, Snowflake, BigQuery, Azure, AWS...

Calificaciones

¿Qué habilidades para unirte al equipo?

  • Título de ingeniero o equivalente
  • A partir de 3 años de experiencia en la función
  • Experiencia comprobada en ingeniería SRE en el campo de los Datos
  • Comprensión profunda de las herramientas de orquestación como Apache Oozie, Apache Airflow, Databricks Jobs
  • Familiaridad con las tecnologías de procesamiento de datos: Apache Spark, Hadoop, Kafka...
  • Comprensión de las mejores prácticas de seguridad de datos: autenticación, autorización, cifrado, anonimización/obfuscación de datos
  • Control de las herramientas de automatización Terraform, Ansible y otras
  • Certificación Terraform es un plus en confirmación de la experiencia en la práctica
  • Certificaciones serán un plus especialmente en las plataformas Cloud Azure, AWS, GCP y Databricks
  • Experiencia comprobada en la gestión/uso de secretos: HashiCorp Vault por ejemplo
  • Experiencia comprobada en herramientas de monitoreo, alerta, recopilación de logs tales como Grafana, Prometheus, ELK, fluentd... y más específicamente aplicada a los pipelines de datos
  • Capacidad para identificar y resolver problemas de rendimiento en los pipelines de datos
  • Una doble competencia infra (linux, ansible, k8s) dev (java, scala, python)
  • Un buen conocimiento de las API Rest y microservicios
  • Práctica de Shell, sistemas Linux, Docker Compose y Kubernetes es un plus
  • Control de las herramientas de integración CI/CD (Jenkins, Gitlab) y trabajar en modo ágil
  • Comprensión e implementación de objetivos de nivel de servicio SLO
  • Excelente habilidades de relaciones interpersonales, te gusta trabajar en equipo
  • Un alto sentido del servicio y compromiso en tus actividades
  • Saber comunicar y escuchar en todas circunstancias y escribir sin errores...
  • and you are fluent in english, indeed!

Información adicional

Información adicional.

  • Puesto basado en Marruecos en nuestras oficinas de Rabat y/o Casablanca y solo abierto a contratos indefinidos
  • Puesto híbrido con la posibilidad de trabajar a distancia
  • Al unirte a Devoteam, tendrás la oportunidad de interactuar con tus compañeros, compartir su experiencia y desarrollar tus habilidades uniéndote a la comunidad Data Driven que reúne a los consultores de los 18 países del Grupo

Mantente conectado:

  • https://www.linkedin.com/company/devoteam
  • https://twitter.com/devoteam
  • https://www.facebook.com/devoteam