PRI Talent recrute un Ingénieur SDET en données pour le compte de notre client. Ce poste est un contrat à temps plein, 1099 contrat d'augmentation du personnel, travaillant avec une entreprise qui est leader dans la réduction des déchets électronique et la valorisation des appareils électroniques doucement utilisé. Notre client a connu une croissance fulgurante et un impact exceptionnel sur la protection de la planète tout en offrant une culture d'entreprise unique.
Notre client recherche un ingénieur SDET en données hautement qualifié et motivé pour rejoindre l'équipe d'ingénierie de données de notre client. Ce rôle se concentre sur l'assurance de la qualité et la fiabilité des pipelines de données de notre client, des solutions de stockage et d'analyse de données via des tests automatisés. Le candidat idéal aura de l'expérience en ingénierie de données, ETL & ELT (Extract, Transform, Load) outils d'orchestration, SQL, et Tableau.
Responsabilités clés
- Concevoir, développer, et exécuter des plans de tests détaillés et des cas de tests pour les processus ETL (pour valider la qualité des données, la logique de transformation, et les performances), les modèles d'apprentissage automatique & APIs. Identifier, signaler les défauts, et travailler en étroite collaboration avec les ingénieurs de données pour résoudre les problèmes.
- Collaborer avec les ingénieurs de données pour valider et optimiser les solutions de stockage de données. Assurer la cohérence des données, l'exactitude, et le stockage efficace.
- Utiliser des outils d'orchestration ETL comme FiveTran ou des plateformes similaires pour automatiser et planifier les workflows de données. Créer des tests pour valider la fonctionnalité et la fiabilité de ces workflows.
- Développer et maintenir les suites de tests pour les tableaux de bord et les rapports Tableau. Vérifier l'exactitude des données et la fonctionnalité du tableau de bord pour assurer que les visualisations de données fournissent des informations significatives.
- Écrire et exécuter des requêtes SQL pour valider les transformations de données, les processus de chargement de données, et les processus de récupération de données. Assurer la cohérence et l'exactitude des données à chaque étape du pipeline.
- Familiarité avec les technologies de flux de données en temps réel, notamment Amazon Kinesis. Tester les processus de flux de données pour la correction, l'intégrité des données, et les performances.
- Mettre en œuvre et maintenir des suites de tests de régression pour s'assurer que les modifications ou les mises à jour des pipelines de données n'introduisent pas de nouveaux problèmes ou de régressions.
- Développer et maintenir des scripts et des cadres de tests automatisés pour les processus d'ingénierie de données afin d'améliorer l'efficacité et la couverture des tests.
- Collaborer étroitement avec les ingénieurs de données, les analystes, et autres parties prenantes pour comprendre les exigences et assurer la qualité et la fiabilité des données.
- Documenter les cas de tests, les plans de tests, et les résultats des tests. Créer et maintenir la documentation sur les pipelines de données, les processus ETL, et les structures de données.
- Rester à jour avec les meilleures pratiques de l'industrie, les technologies émergentes, et les tendances en ingénierie de données et en tests. Identifier les opportunités d'amélioration des processus et d'automatisation.
- La connaissance de la façon dont les technologies de flux de données en temps réel comme Kinesis fonctionnent est un plus.
Formation et expérience
- Un diplôme de Bachelor en informatique, technologie de l'information, ou un domaine lié.
- Expérience prouvée dans les tests logiciels, spécifiquement dans l'ingénierie de données, les processus ETL, et le stockage de données.
- Excellentes compétences en SQL et expérience de travail avec des bases de données telles que SQLServer ou similaires et des entrepôts comme Snowflake ou Amazon Redshift.
- Excellente maîtrise des outils d'orchestration ETL comme Snaplogic ou FiveTran ou similaires.
- Expérience avec les outils de visualisation de données, en particulier Tableau.
- Connaissance des technologies de flux de données en temps réel comme Amazon Kinesis ou Apache Kafka est un plus.
- Compétences solides en résolution de problèmes et en attention aux détails.
- Excellentes compétences en communication et en collaboration.
- Capacité à travailler indépendamment et en équipe.
- Connaissance des langages de script (par exemple, Python) pour l'automatisation des tests est un plus.
- Certifications en ingénierie de données ou tests logiciels sont un avantage.
Veuillez noter que nous n'accepterons pas les candidatures qui n'incluent pas une lettre de motivation et des exemples de travail.