Інженер з даних

  • Full Time
Job expired!
Інформаційний огляд компанії DFI DFI Retail Group («Група») – провідний роздрібний торговець в Азії. На 31 грудня 2021 року Група разом зі своїми філіями та спільними підприємствами управляла понад 10 200 магазинами та наймала приблизно 230 000 співробітників. У 2021 році загальний річний оборот Групи перевищив 27 мільярдів доларів США. Ціллю Групи є служіння азійським споживачам з якістю та цінністю, шляхом пропозиції відомих брендів, привабливого роздрібного досвіду та відмінного обслуговування, яке надається через потужну мережу магазинів, підтриману ефективними ланцюгами поставок. Група (включаючи філії та спільні підприємства) управляє численними відомими брендами у сфері продуктів харчування, здоров’я та краси, меблів для дому, ресторанів та інших роздрібних секторів. Материнська компанія Групи - це Dairy Farm International Holdings Limited, зареєстрована на Бермудах, основний лістинг акцій на Лондонській фондовій біржі, із другорядними лістингами на Бермудах та в Сінгапурі. Бізнеси Групи керуються з Гонконгу Dairy Farm Management Services Limited через свої регіональні офіси. DFI Retail Group є членом Jardine Matheson Group. Основні обов'язки: - Управління проектами з аналітики даних від початку до кінця ефективно, із повними та перевіреними даними, дотримуючи терміни виконання проекту. - Конструювання ETL-конвейера даних для трансформації бази даних. - Співпраця з бізнес-підрозділами, ІТ-командами та внутрішніми членами команди для забезпечення вилучення, розуміння та перекладу даних для аналітики. - Надання підтримки у збереженні та розробка рішень щодо проблем візуалізації звітів. - Підтримання процедури контролю якості даних для забезпечення чистоти даних в межах SLA. Вимоги: - Бакалаврський диплом з технологій, інженерії або суміжної галузі. - Наявність досвіду роботи в області програмного забезпечення протягом як мінімум 2+ років є перевагою, хоча відмінні технічні вміння нещодавно випускних студентів також оцінюються. - Глибокі навички розробки SQL та Python. - Досвід роботи з ETL, Data Lake, конвейерами баз даних та проектами з аналітики даних. - Досвід роботи з Google Cloud Platform (GCP) був би великою перевагою, але вітається також досвід розробки на інших хмарних платформах (наприклад, Azure, AWS). - Досвід роботи з фреймворками для роботи з великими даними (наприклад, Airflow, Hadoop, Kafka, Spark) був би важливою перевагою. - Знання CI/CD було б великим активом. - Здатність самостійно працювати в умовах швидкого темпу без мінімального керівництва. - Добрі комунікативні навички, включаючи сильний письмовий та усний англійський.