Présentation de la société DFI
Le groupe DFI Retail (le ‘Groupe’) est un leader des détaillants en Asie. Au 31 décembre 2021, le Groupe et ses associés et coentreprises exploitaient plus de 10 200 points de vente et employaient environ 230 000 personnes. Le Groupe a réalisé en 2021 un chiffre d'affaires annuel dépassant les 27 milliards de dollars américains.
Le Groupe propose de la qualité et de la valeur aux consommateurs asiatiques en offrant des marques de premier plan, une expérience de vente au détail convaincante et un excellent service, le tout soutenu par un réseau solide de magasins appuyé par des chaînes d'approvisionnement efficaces.
Le Groupe (y compris les associés et coentreprises) opère sous plusieurs marques bien connues dans les domaines de l'alimentation, de la santé et de la beauté, de l'ameublement de maison, des restaurants et d'autres domaines de la vente au détail.
La société mère du Groupe, Dairy Farm International Holdings Limited, est incorporée aux Bermudes et est principalement cotée à la Bourse de Londres, avec des cotations secondaires aux Bermudes et à Singapour. Les entreprises du Groupe sont gérées depuis Hong Kong par Dairy Farm Management Services Limited à travers ses bureaux régionaux.
DFI Retail Group est membre du groupe Jardine Matheson
Responsabilités:
- Conduire l'exécution de bout en bout des initiatives d'analyse de données de manière efficiente avec des données complètes et qualifiées, et dans le respect des délais du projet.
- Construire un pipeline de données ETL pour la transformation de l'entrepôt de données.
- Collaborer efficacement avec les unités commerciales, les équipes informatiques et les membres internes de l'équipe pour s'assurer que les données sont capturées, comprises et traduites pour l'analyse de données.
- Fournir un soutien de maintenance et résoudre les problèmes liés à la visualisation des rapports.
- Maintenir le processus de qualité des données pour s'assurer que les données sont propres et dans le respect des SLA.
Exigences
- Diplôme de baccalauréat en technologie, ingénierie ou domaine connexe.
- De préférence 2+ années d'expérience en ingénierie logicielle, cependant, les nouveaux diplômés ayant de solides compétences techniques sont également les bienvenus.
- Fortes compétences en développement SQL et Python.
- Expérience en ETL, Data Lake, pipelines d'entrepôts de données et projets d'analyse de données.
- L'expérience avec Google Cloud Platform (GCP) serait un énorme avantage, cependant l'expérience de développement sur d'autres plateformes cloud est également la bienvenue (par exemple, Azure, AWS).
- L'expérience avec le cadre de travail pour les big data (par exemple, Airflow, Hadoop, Kafka, Spark) est un énorme plus.
- L'expérience en CI/CD serait un gros plus.
- Capable de travailler de manière indépendante dans un environnement au rythme rapide avec un minimum de supervision.
- Bonnes compétences de communication, y compris une forte capacité à écrire et à parler en anglais.