Nous recherchons un architecte de données hautement expérimenté et qualifié pour rejoindre notre équipe. Le candidat idéal aura 12-15 ans d'expérience dans l'élaboration de solutions d'ingénierie de données, se concentrant sur les charges de travail ELT et PySpark/Hadoop. En plus de solides compétences en matière de solutions et de livraison, le candidat idéal aura également une vision de la croissance des affaires et de la gestion des parties prenantes.
Responsabilités:
- Concevoir et mettre en œuvre des architectures de données performantes, évolutives et sécurisées.
- Travailler avec les parties prenantes de l'entreprise pour comprendre leurs besoins en matière de données et les traduire en exigences techniques.
- Concevoir et développer des pipelines et des workflows de données en utilisant les principes ELT et PySpark/Hadoop
- Optimiser les pipelines et les workflows de données pour la performance et l'efficacité
- Travailler avec des scientifiques et des ingénieurs de données pour garantir que les données sont accessibles et utilisables pour l'analytique et l'apprentissage automatique
- Mettre en œuvre les meilleures pratiques en matière de gouvernance et de sécurité des données
- Gérer et encadrer les ingénieurs de données
- Contribuer à la stratégie et à la feuille de route globale de l'ingénierie des données
Exigences
Qualifications:
- 12-15 ans d'expérience en ingénierie de données, avec une concentration sur les charges de travail ELT et PySpark/Hadoop
- Forte expérience dans la conception et la mise en œuvre d'architectures de données performantes, évolutives et sécurisées.
- Expérience avec les meilleures pratiques en matière de gouvernance et de sécurité des données
- Expérience dans la gestion et l'encadrement des ingénieurs de données
- Excellentes compétences de communication et interpersonnelles
- Capacité à travailler de manière indépendante et en équipe
- Fortes compétences en résolution de problèmes et en analyse
Compétences souhaitées:
- Expérience avec des plateformes de cloud computing telles que AWS, Azure, ou GCP
- Expérience avec les technologies de big data telles que Spark, Hadoop, Hive, et Kafka
- Expérience avec l'entreposage de données et les lacs de données
- Expérience avec les pratiques de DevOps et MLOps
- Expérience avec la science des données et l'apprentissage automatique, le traitement des données en streaming
- Expérience avec l'analytique en temps réel, les outils de visualisation de données et de reporting