Oracle + PySpark Data Engineer (Remote)

Job expired!

Description de l'Emploi:

Nous recherchons actuellement un Ingénieur/Analyste de Données Oracle + PySpark expérimenté ayant de 5 à 7 ans d'expérience professionnelle. En tant qu'élément crucial de notre équipe de données, vous utiliserez vos compétences pour gérer, transformer et analyser de grands ensembles de données afin de piloter des processus de décision sophistiqués. C'est une excellente opportunité pour les professionnels qui sont adeptes du maintien de l'intégrité des données, de l'optimisation des flux de données et de l'échafaudage de cadres basés sur les données.

Responsabilités Principales:

  • Intégration de Données: Exécuter l'intégration de diverses sources de données dans les bases de données Oracle et construire des pipelines de données PySpark efficaces pour l'analytique et la transformation.
  • Transformation de Données: Développer, mettre en œuvre et maintenir des flux de travail PySpark dynamiques pour nettoyer, enrichir et organiser les données adaptées aux études analytiques.
  • Modélisation de Données: Construire et améliorer continuellement les modèles de données dans Oracle pour assurer une structuration et une indexation optimales pour une performance de requête supérieure.
  • Optimisation des Requêtes: Créer des requêtes SQL complexes et des scripts PySpark sur mesure pour un retraitement rapide des données et un traitement simplifié.
  • Analyse de Données: Travailler en étroite collaboration avec les analystes de données et les unités commerciales pour distiller des informations grâce à une analyse de données robuste et des rapports complets.
  • Qualité des Données: Promouvoir la mise en œuvre de contrôles qualité stricts, de la gestion des erreurs et des protocoles de validation pour garantir la fiabilité et l'exactitude des données.
  • Ajustement des Performances: Régler finement les configurations Oracle et les jobs PySpark pour améliorer l'efficacité de traitement et la performance globale.

Compétences Techniques Requises:

  • Expertise avérée dans les bases de données Oracle et les applications PySpark.
  • Une maîtrise solide de SQL, PL/SQL, Python et PySpark.
  • Apte en gestion de bases de données Oracle, entreposage de données et processus ETL.
  • Connaissance approfondie des technologies de big data et des principes de calcul distribué.
  • Excellent capacités analytiques, de dépannage et de résolution de problèmes.
  • Communication efficace et capacités de travail d'équipe robustes.
  • Connaissance approfondie des normes de sécurité des données et des benchmarks de conformité.

Documentation: Développer et maintenir une documentation détaillée couvrant les modèles de données, les mécanismes ETL et toutes les bases de code.

Ce rôle offre une option de travail à distance, vous permettant de rejoindre notre équipe dynamique de n'importe où. Chez PradeepIT, nous donnons le pouvoir à nos employés d'innover et de développer des solutions qui font véritablement une différence.

Si vous êtes impatient de contribuer à des projets pilotés par les données et possédez l'ensemble des compétences requises, postulez aujourd'hui pour devenir partie intégrante d'une équipe d'ingénierie de données visionnaire chez PradeepIT Consulting Services Pvt Ltd.