Приєднуйтесь до GE HealthCare як Спеціаліст із обробки даних, щоб працювати над інноваційними рішеннями для Великих Даних. Ви будете проектувати, розробляти, тестувати та впроваджувати процеси обробки даних для створення аналітичних та звітних рішень. Тісно співпрацюйте з архітекторами для впровадження різних продуктів даних для GEHC. Керуйте та підтримуйте структури метаданих, такі як каталоги даних, і надавайте необхідну підтримку для післявпроваджувальних дій за потреби. Вчасно досягайте результатів, використовуючи гнучкі методології.
GE HealthCare є глобальним лідером у сфері медичних технологій та цифрових рішень, присвяченим створенню світу, де охорона здоров'я не знає меж. Приєднуйтесь до нас, щоб перетворити ідеї у реальність, що змінює світ, роблячи різницю в спільному та інклюзивному середовищі, яке цінує кожен голос.
У цій ролі ви будете:
- Проектувати та впроваджувати надійні, масштабовані конвеєри даних для систем Великих Даних, брати участь у технічних дизайнах та представляти технічні ідеї.
- Створювати системи виробничого рівня для ETL, обробки даних, моніторингу даних та оцінки якості даних, використовуючи різні інструменти та технології.
- Збирати вимоги до аналітичних систем через мозкові штурми з архітекторами та менеджерами продукту.
- Розробляти конвеєри даних для хмарних систем BI, AI та ML, досліджуючи компроміси.
- Допомагати у BI, AI та ML ініціативах, інтерпретуючи результати кількісних моделей, виявляючи тренди та розробляючи альтернативи для підтримки бізнес-цілей.
Необхідно:
- Бакалаврський або магістерський ступінь у галузі інформатики.
- 1+ рік досвіду роботи з технологіями Великих Даних, екосистемою обробки даних Azure або хмарою AWS, включаючи Databricks/Apache Spark, NoSQL та реляційні бази даних.
- 1+ рік досвіду роботи з такими сервісами AWS, як EC2, Databricks, S3, SQS, SNS та CloudWatch.
- Робочі знання форматів колонкових файлів (ORC, Parquet, Delta tables).
- Досвід роботи з структурованими, напівструктурованими та неструктурованими наборами даних (формати XML, JSON).
- 1+ рік практичного досвіду розробки на Java, Python, SQL, R або Scala, включаючи написання та оптимізацію SQL-запитів.
- 1+ рік створення конвеєрів Databricks за допомогою Python/Scala, включаючи написання модульних тестів, моніторинг та перевірку даних.
Бажано:
- Розуміння структури BDD, CI/CD, Terraform, Docker та концепцій AI/ML.
- Знання концепцій створення сховищ даних, Великих Даних, розподілених обчислень та сучасних принципів архітектури даних, таких як Data Mesh та Data Lakehouse.
- Вплив на інструменти забезпечення якості даних, такі як Great Expectations/Spark Deequ та стандарти охорони здоров'я, як-от HL7, FHIR.
- Сертифікація AWS Cloud