Junior AWS Data Engineer - REMOTE

Job expired!

Rejoignez Notre Équipe en tant que Responsable Ingénieur Données AWS - Opportunité en Télétravail

Chez Perficient, nous sommes ravis d'annoncer une opportunité de carrière pour un Responsable Ingénieur Données AWS. Bien que notre siège soit à St. Louis, MO, il s'agit d'un poste en télétravail ouvert aux candidats de tout le territoire des États-Unis, opérant dans les fuseaux horaires de l'Heure de l'Est (ET).

Présentation du Poste :

En tant que Responsable Ingénieur Données AWS motivé, vous jouerez un rôle clé dans la construction de pipelines de données efficaces et évolutifs en utilisant AWS. Votre expertise dans les services ETL AWS vous permettra de concevoir, développer et gérer des solutions d'intégration de données à grande échelle tout en garantissant une qualité, une sécurité et une performance des données de premier ordre.

Responsabilités clés :

  • Concevoir et mettre en œuvre des pipelines de données robustes en utilisant des services AWS tels que Glue, Lambda, Step Functions et Kinesis.
  • Diriger et former une équipe d'ingénieurs ETL, en améliorant leurs compétences et en pilotant des projets d'intégration de données réussis.
  • Optimiser les pipelines de données existants pour une meilleure performance, évolutivité et efficacité des coûts.
  • Développer une documentation complète pour maintenir la transparence et faciliter le transfert de connaissances.
  • Mettre en œuvre des contrôles de qualité des données approfondis et surveiller les processus pour maintenir l'intégrité des données à travers le flux ETL.
  • Travailler en collaboration avec les analystes de données, les scientifiques de données et les parties prenantes commerciales pour répondre efficacement aux exigences ETL.
  • Assurer un accès sécurisé aux données en gérant les politiques AWS Identity and Access Management (IAM) et en utilisant l'Infrastructure as Code (IaC) avec des outils tels que Terraform.
  • Rester à jour sur les derniers développements des services de données AWS et les meilleures pratiques ETL pour améliorer continuellement nos processus.
  • Aborder et dépanner les problèmes complexes dans les pipelines de données pour assurer des opérations de données sans faille.

Qualifications :

  • Au minimum 3 ans d'expérience dans la conception et la mise en œuvre de pipelines de données basés sur AWS.
  • Expérience avérée avec les services ETL AWS tels que Glue, Lambda, Step Functions et Kinesis.
  • Compréhension solide des concepts d'entrepôt de données et de modélisation de données.
  • Maîtrise de SQL, Python ou Bash pour la manipulation de données et les tâches d'automatisation.
  • Expérience forte dans les méthodologies d'assurance qualité des données.
  • Excellentes capacités de communication, de collaboration, de leadership et de résolution de problèmes.
  • Capacité à guider et à former efficacement les membres juniors de l'équipe.

Compétences supplémentaires préférées :

  • Familiarité avec Amazon DynamoDB, Amazon Aurora, Redshift et Snowflake.
  • Expérience avec Docker, Kubernetes et les méthodologies CI/CD pour les pipelines de données.
  • Les certifications AWS pertinentes telles que AWS Certified Data Analytics - Specialty ou AWS Certified Solutions Architect - Associate sont très avantageuses.

La fourchette salariale pour ce rôle prend en compte divers facteurs, notamment les compétences, l'expérience et le lieu, avec une fourchette de salaire de base estimée entre 45 864 $ et 101 520 $. Pour des informations détaillées sur les avantages, veuillez vous référer à notre document de présentation des