Data Engineer / Architect

Job expired!

Type d'emploi: Temps plein

La team d'Amivero, composée de professionnels IT, excelle dans la livraison de services numériques avancés qui améliorent les opérations gouvernementales fédérales. Notre focus s'étend de la sécurité nationale à l'amélioration des services gouvernementaux. Avec une approche centrée sur l'humain et guidée par les données, nous visons à comprendre l'environnement et réimaginer des résultats réussis aux côtés de nos clients.

Nos technologues utilisent des méthodologies modernes et agiles pour concevoir et développer des services de données et logiciels équitables, accessibles et innovants, impactant des millions de personnes. En tant que fier membre de l'équipe Amivero, vous utiliserez l'empathie, une passion pour le service et une approche proactive pour moderniser les systèmes IT gouvernementaux cruciaux.

Citoyenneté américaine: Requise pour obtenir la Confiance Publique

Habilitations préférées: Habilitation de Confiance Publique active du Département de la Sécurité Intérieure, EOD, ou Habilitation Top Secret

Education et Expérience: Diplôme de licence plus 4 ans d'expérience pertinente

Compétences techniques préférées: Python, Airflow, Terraform, RDS, Databricks

En tant qu'Ingénieur/Architecte de données, vous ferez partie d'une équipe responsable du développement de plateformes, services, et pipelines de données de niveau entreprise. Votre passion pour les données et votre expertise en résolution de problèmes seront essentielles pour faire progresser notre environnement d'entreprise.

  • Concevoir et mettre en œuvre des plateformes de données efficaces pour gérer des données structurées et non structurées.
  • Utiliser les concepts de DataOps et les outils d'automatisation comme Terraform, Apache Airflow, CloudBees, CloudFormation templates, et Git actions.
  • Mettre en place des pipelines de données avec vérification et validation en ligne en utilisant les bibliothèques open-source, de préférence Python.
  • Déterminer des conceptions de données analytiques et efficaces pour des solutions commerciales de pointe.
  • Utiliser des outils de reporting BI et d'analyse tels que Tableau et Jasper Reports.
  • Travailler avec des bases de données relationnelles (Oracle/PostgreSQL) pour la sourçage des données et l'analyse des relations.
  • Évaluer et concevoir des modèles de données efficaces, en faisant des recommandations d'optimisation.
  • Collaborer étroitement avec d'autres unités IT pour améliorer l'environnement de calcul.
  • Rester informé des dernières tendances et pratiques technologiques en matière de données, y compris le Data Mesh.
  • Utiliser AWS GovCloud, la sécurité IAM, RDS, le contrôle d'accès basé sur les rôles (RBAC) et Docker.
  • Faire migrer les environnements en garantissant performance et fiabilité.

Nous recherchons des candidats ayant:

  • Plus de 4 ans d'expérience directe en ingénierie des données.
  • Maîtrise des outils big data tels que Hadoop, Spark, Kafka, etc.
  • Solides compétences en bases de données relationnelles SQL et NoSQL incluant Postgres et Cassandra.
  • Expérience avec les outils de gestion de pipelines de données et de workflows comme Azkaban, Luigi, Airflow, etc.
  • Familiarité avec les services cloud AWS incluant EC2, EMR, RDS, Redshift (ou équivalents Azure).
  • Connaissance des systèmes de streaming de données comme Storm et Spark-Streaming.
  • Expertise avec les outils de recherche comme Solr, Lucene, Elasticsearch.
  • Expérience avec les langages orientés objet/de script: Python, Java, C++, Scala, etc.
  • Maîtrise d'Apache Airflow, CloudBees, CloudFormation.
  • Expérience avec les outils de visualisation de données tels que Tableau ou PowerBI.
  • Expertise en Python.
  • Expérience avec les file d'attente de messages, le traitement de flux, et les magasins de données "big