Description de l'entreprise
Chez Devoteam, nous sommes des « Transformateurs Digitaux ». Le respect, la franchise et la passion animent notre tribu chaque jour.
Ensemble, nous aidons nos clients à remporter la bataille du numérique : du conseil à la mise en œuvre de technologies innovantes, jusqu'à l'adoption des usages.
Cloud, CyberSécurité, Data, DevOps, Fullstack Dev, Low Code, RPA ne sont plus un secret pour notre tribu !
Nos 10 000+ collaborateurs sont certifiés, formés et accompagnés au quotidien pour relever de nouveaux défis innovants.
Leader du Cloud, de la Cybersécurité et de la Data en EMEA, le Groupe Devoteam a réalisé en 2022 un chiffre d'affaires de 1,036 milliard d'euros et s'est fixé pour ambition de le doubler dans les 5 années à venir.
Devoteam Maroc, acteur de référence dans les expertises IT depuis plus de 30 ans (350+ consultants) accélère sa croissance en développant ses activités d'expertise en nearshore pour répondre aux besoins de nos clients français, européens et du Moyen-Orient.
Es-tu prêt(e) à nous rejoindre et à relever ensemble ce défi ?
Description du poste
Ingénieur Data Ops @ Devoteam Data Driven.
Dans un monde où les sources de données sont en constante évolution, Devoteam Data Driven aide ses clients à transformer leurs données en informations exploitables et à les rendre ainsi impactantes pour plus de valeur commerciale.
Data Driven aborde les 3 grandes dimensions suivantes : Stratégie Data, Data pour les affaires et Fondation Data en soutien de l'expertise chez ses clients pour les rendre encore plus performants et compétitifs au quotidien.
Au sein des équipes Nearshore de Devoteam Maroc, tu rejoindras les équipes de la tribu Data Foundation : une équipe enthousiaste de Data Engineers, Data Ops, Tech lead architectes et de chefs de projet travaillant sur les plateformes et l'écosystème Data : dessiner, construire et moderniser les plateformes et solutions Data, concevoir les pipelines de données en mettant l'accent sur l'agilité et le DevOps appliqué à la Data.
Et plus particulièrement une communauté d'ingénieurs/architectes Data Ops experte dans la gestion des opérations, l'automatisation, la fiabilité des composants et plateformes Data de demain encore plus qu'aujourd'hui "nativement Cloud" et dans leur capacité et aptitude à collaborer avec les équipes de développement et d'exploitation.
Tu seras le maillon essentiel pour :
- Mettre en place et configurer les infrastructures nécessaires pour les pipelines de données : les clusters de traitement de données (Apache Spark, Cloudera, Databricks, Snowflake, GCP BigQuery, Kafka, Nifi, Starburst ...), des bases de données (Elasticsearch, Redis, MongoDB, BigTable, DynamoDB ...) et d'autres composants (Airflow, Jupyter, RStudio, dbt, Minio, ...)
- Concevoir, développer et maintenir les pipelines d'intégration continue (CI) et de déploiement continu (CD) pour automatiser le processus de déploiement des composants d'infrastructure
- Décrire et gérer l'infrastructure comme du code (IaC) à l’aide des outils Terraform, Ansible et autres pour fournir un provisionnement automatisé et reproductible des ressources
- Mettre en place les systèmes de surveillance pour suivre les performances des pipelines de données et configurer les alertes à remonter en cas de défaillance ou de problème de performance
- Analyser et améliorer les performances des pipelines de données en identifiant les goulots d'étranglement, en ajustant les configurations, et en mettant en œuvre des optimisations
- Mettre en œuvre les systèmes de surveillance afin de suivre les métriques de performance, détecter les anomalies et déclencher des alertes en cas de problèmes en s’appuyant sur des outils Prometheus, Grafana et autres
- Mettre en place les systèmes de gestion des journaux (logs) pour collecter, stocker et analyser les logs des applications et des infrastructures
- Collaborer avec les équipes de sécurité dans la mise en œuvre des bonnes pratiques de sécurité incluant la gestion des secrets, les méthodes d'accès RBAC/ABAC et d'anonymisation / cryptage des données, la configuration des politiques de sécurité et de confidentialité incluant le RGPD et si nécessaire participer aux éventuels audits de sécurité
- Garantir la disponibilité, la performance et la fiabilité des services par la conception et la mise en œuvre d'architectures robustes et résilientes complétées de tests de charge
- Surveiller l'utilisation des ressources et gérer le capacity planning pour faire face aux augmentations de charge tout en optimisant l'utilisation des ressources existantes
- Mettre en œuvre les mécanismes d'auto scaling pour ajuster dynamiquement les ressources à allouer en fonction de la charge de travail
- Assurer la MCO de l’infrastructure et des composants Data déployés incluant la gestion des mises à jour, des correctifs de sécurité et la résolution proactive des problèmes
- Maintenir une documentation précise des configurations, des procédures des pipelines de données et des meilleures pratiques pour le déploiement et la compréhension et collaboration au sein de l’équipe
- Travailler en étroite collaboration avec les équipes de développement pour intégrer les pratiques DevOps dans le cycle de vie du développement logiciel
- Identifier, diagnostiquer et résoudre rapidement les problèmes opérationnels incluant la mise en œuvre des pratiques de maintenance préventive pour éviter les pannes imprévues et assurer la disponibilité continue des pipelines
- Évaluer et mettre en œuvre les stratégies d’optimisation des coûts liés à l'infrastructure et aux ressources utilisées
- Travailler en étroite collaboration avec les équipes de développement, analystes et data scientist pour comprendre les exigences et s'assurer que les composants déployés répondent à leurs besoins
- Mettre en place les mécanismes de lineage et de catalogue des données et déploiement de solutions pour garantir la qualité des données, leur traçabilité à travers les différents stades du traitement en respect des règles de sécurité et de confidentialité
Tu donneras ta pleine mesure par la maîtrise de tes fondamentaux techniques, ta connaissance sur le bout des doigts des activités de [Site Reliability Engineer] appliquées à la Data, des plateformes et composants Data et surtout en affirmant ta volonté à comprendre les besoins et l’offre de service sur lesquels tu travailleras.
Ton terrain de jeu : la distribution, l’énergie, la finance, l’industrie, la santé et les transports avec plein de cas d’usage et de nouveaux défis Data à relever ensemble notamment la Data dans le Cloud.
Ce qu'on attend de toi.
- Que tu aies foi dans la Data et le DevOps
- Que tu aides ton collègue
- Que tu sois gentil avec tes RHs
- Que tu t’amuses dans ta mission
- Et que les Codingame ne te fassent pas peur (tu ne seras pas seul : on t’aidera)
Et plus sérieusement :
- Que tu maîtrises les plateformes et composants Data couramment déployés dans le traitement, l’analyse et l’exposition des données
- Que tu appliques également sur les attendus fondamentaux d'un ingénieur SRE : l'automatisation, la surveillance, la fiabilité et la collaboration interfonctionnelle pour assurer le succès opérationnel des services
- Que tu souhaites t’investir sur les nouveaux paradigmes de la Data et du DevOps SRE : Cloud, DaaS, SaaS, DataOps, AutoML et que tu t’engages à nos côtés dans cette aventure
- Que tu aimes travailler en mode agile
- Que tu réalises avec assiduité et rigueur les activités demandées
- Que tu entretiennes cette double compétence Infra & Dev
- Que tu sois proche des commanditaires et des parties prenantes, que tu les accompagnes dans la définition de leurs nouveaux besoins et services : dans des ateliers, en définissant les user stories et en éprouvant au travers de POC
- Et l’automatisation fait partie de tes drivers et tu en es un promoteur convaincu : tu travailles ton code, tu commit en Open Source, tu fais un peu de compétition alors rejoins nous
Ce qu’on t’apportera.
- Un manager à tes côtés en toute circonstance
- Une communauté Data où tu y trouveras ta place : Ideation Lab, Hackathon, Meetup ...
- Un parcours de formation et de certification via “myDevoteam Academy” sur les technologies du moment et à venir : Databricks, Spark, Azure Data, Elastic.io, Kafka, Snowflake, GCP BigQuery, dbt, Ansible, Docker, k8s …
- Un renfort de ton expertise dans le domaine de la Data pour devenir un Tech Lead Cloud (Azure, AWS, GCP …), un architecte des futures plateformes Data, un expert DataOps au service des métiers (Data as a Service) et de la Data Science (AutoML), un Data Office Manager en pilotage des projets Data Product, bref plein de nouveaux jobs en perspective …
- La possibilité de t’investir personnellement : être formateur interne, leader de communauté, participer aux entretiens candidats, aider à développer nos offres et pourquoi pas manager ta propre équipe ...
Quelques exemples de missions.
- La conception, la mise en place et le support des pipelines data
- Le déploiement de solutions data dans une démarche Agile et DevOps
- Le développement d’API REST pour exposer les données
- Le support et l’expertise sur les technologies Data et les solutions déployées : Hadoop, Spark, Kafka, Elasticsearch, Snowflake, BigQuery, Azure, AWS ...
Qualifications
Quels atouts pour rejoindre l’équipe ?
- Diplôme d'ingénieur ou équivalent
- À partir de 3 ans d'expérience dans la fonction
- Expérience avérée en ingénierie SRE dans le domaine de la Data
- Compréhension approfondie des outils d’orchestration tels Apache Oozie, Apache Airflow, Databricks Jobs
- Familier des technologies de traitement des données : Apache Spark, Hadoop, Kafka …
- Compréhension des meilleures pratiques de sécurité des données : authentification, autorisation, chiffrement, anonymisation / obfuscation des données
- Maîtrise des outils d’automatisation Terraform, Ansible et autres
- Certification Terraform est un plus en confirmation de l’expérience dans la pratique
- Des certifications seront un plus spécialement sur les plateformes Cloud Azure, AWS, GCP et Databricks
- Pratique avérée dans la gestion/utilisation des secrets : HashiCorp Vault par exemple
- Pratique avérée des outils de surveillance, alerting, remontée des logs tels Grafana, Prometheus, ELK, fluentd … et plus particulièrement appliquée aux pipelines de données
- Capacité à identifier et à résoudre les problèmes de performance dans les pipelines de données
- Une double compétence infra (linux, ansible, k8s) dév (java, scala, python)
- Une bonne connaissance des API Rest et microservices
- Pratique du Shell, des systèmes Linux, de Docker Compose et de Kubernetes est un plus
- Maîtrise des outils d'intégration CI/CD (Jenkins, Gitlab) et du travail en mode agile
- Compréhension et mise en œuvre d'objectifs de niveau de service SLO
- Un excellent relationnel, tu aimes travailler en équipe
- Un sens prononcé du service et engagé dans tes activités
- Savoir communiquer et écouter en toutes circonstances et écrire sans fautes …
- and you are fluent in english, indeed !
Informations supplémentaires
Informations additionnelles.
- Poste basé au Maroc dans nos locaux de Rabat et/ou Casablanca et ouvert uniquement en CDI
- Poste hybride avec possibilité de télétravail
- En rejoignant Devoteam, vous aurez la possibilité d’échanger avec vos pairs, de partager leur expérience et de développer vos compétences en rejoignant la communauté Data Driven rassemblant les consultants des 18 pays du Groupe
Restons connectés :
- https://www.linkedin.com/company/devoteam
- https://twitter.com/devoteam
- https://www.facebook.com/devoteam