R&D Data Engineer in AI and Computer Vision

Job expired!

Eviden, faisant partie du groupe Atos, est un leader mondial de la transformation numérique axée sur les données, de confiance et durable, avec un chiffre d'affaires annuel d'environ 5 milliards d'euros. En tant qu'entreprise numérique de nouvelle génération, nous occupons des positions de leader mondial dans le numérique, le cloud, les données, l'informatique avancée et la sécurité. Notre expertise profonde s'étend sur plus de 47 pays, unissant des technologies de pointe uniques avec 47 000 talents de classe mondiale, élargissant les possibilités de données et de technologie pour les générations à venir.

Nous développons la plateforme Eviden Computer Vision, une solution d'analyse vidéo en temps réel de pointe applicable à divers secteurs. En utilisant des technologies d'IA et des composants logiciels de Big Data, nous concevons et améliorons notre produit pour gérer des opérations de données complètes.

Nous recherchons un Ingénieur Data qualifié et motivé pour rejoindre notre équipe. Ce rôle implique la mise en œuvre de pipelines de données de bout en bout et l'exploitation de data lakes pour soutenir nos projets innovants.

  • Construire et maintenir des pipelines de données robustes pour l'ingestion, la transformation et le chargement de données provenant de diverses sources, en garantissant la qualité, la cohérence et la fiabilité des données.
  • Mettre en œuvre des logiques de transformation de données pour convertir les données brutes en formats structurés adaptés à l'analyse et au reporting, en utilisant des processus ETL/ELT.
  • Gérer l'infrastructure de la plateforme de données, en optimisant l'utilisation du stockage et en garantissant l'accessibilité des données.
  • Mettre en œuvre et appliquer des mesures de sécurité des données, des contrôles d'accès et des normes de conformité pour maintenir l'intégrité et la confidentialité des données.
  • Développer des mécanismes de recherche et de récupération de données efficaces, en tenant compte de la pertinence, des performances des requêtes et de l'expérience utilisateur.
  • Surveiller et optimiser les performances des pipelines de données et des systèmes de stockage pour un traitement et une récupération des données efficaces.
  • Maintenir une documentation complète des conceptions, processus et configurations des pipelines de données.
  • Automatiser la construction, le test et le déploiement de composants de data lake en suivant les pratiques DevOps.
  • Mettre en œuvre des tests unitaires et d'intégration, et propager les connaissances au sein de l'équipe.
  • Gérer de manière sécurisée les actifs en IA tels que les jeux de données et les modèles.
  • Intégrer des composants d'extraction de métadonnées en utilisant des modèles d'IA et des outils tiers.
  • Collaborer efficacement avec des équipes interfonctionnelles, y compris des data scientists, des ingénieurs data, des développeurs frontend et backend, et des propriétaires de produits.

Bachelor, Master ou PhD en informatique, en ingénierie électrique ou dans un domaine connexe.

  • Expérience avérée (3+ ans) dans la conception, la construction et la maintenance de pipelines de données à grande échelle et de l'infrastructure de data lake.
  • Forte maîtrise des langages de programmation tels que Python.
  • Expérience pratique dans le développement d'API REST.
  • Expérience avec Elasticsearch, y compris l'ingestion de données, l'indexation et les capacités de recherche.
  • Connaissance de la modélisation des données, de la conception de schémas et des processus ETL/ELT.
  • Expérience avec Docker et Kubernetes pour le déploiement d'applications logicielles.
  • Maîtrise de l'utilisation de Git et GitHub Actions.
  • Pratique de la méthodologie agile.
  • Compétence dans les environnements Linux (bash ou shell).
  • Niveau d'anglais B2.
  • Expérience avec les outils MLOps tels que MLFlow ou Kubeflow.
  • Expérience avec Google Cloud Platform (GCP).
  • Connaissance de la programmation CPU vs GPU.