В мире быстро развивающихся бизнес-вызовов Kroll остаётся маяком ясности и точности с известной лупой Kroll. Наши передовые аналитические возможности, сочетаясь с передовыми технологиями, позволяют нам предоставлять не просто ответы, но чёткие, лаконичные инсайты во всех бизнес-секторах. Содействуя созданию среды, богатой разнообразием и глобальными перспективами, мы ценим и принимаем инклюзивность, вдохновляя каждого члена нашей команды на успех. Будучи ключевой частью Одна команда, Один Kroll, вы будете способствовать созданию поддерживающего и сотрудничающего рабочего пространства, повышая вашу способность к успеху.
В Kroll ваша экспертиза сыграет ключевую роль в решении сложных вопросов наших клиентов, связанных с управлением, рисками и прозрачностью. Мы приглашаем вас подать заявку сейчас и присоединиться к Одна команда, Один Kroll, чтобы помогать нашим клиентам с ясностью и точностью.
В качестве старшего инженера по данным вы будете:
- Присоединяться к гибким Scrum-командам в качестве инженера по данным и аналитике, разрабатывая инфраструктуру данных и аналитики корпоративного уровня, инструменты и продукты.
- Улучшать наши возможности по инженерии данных с акцентом на создание основных данных, инженерные трубопроводы и стратегии данных.
- Брать на себя ответственность за доставку критически важных данных через подключенный экосистему Kroll.
- Создавать и поддерживать межфункциональные отношения для лучшего понимания требований к продуктам и ожиданий доставки.
- Содействовать внедрению новых продуктов и платформ данных для улучшения операций по всей организации.
- Возглавлять инициативы по созданию масштабируемых, устойчивых к сбоям трубопроводов и платформ данных через множество систем и приложений.
- Формулировать и реализовывать стратегию данных корпоративного уровня, включая управление, архитектуру данных и большие данные.
- Руководить глобальными межфункциональными командами, внося вклад в международные проекты и сотрудничество.
Требования и квалификация:
- Степень бакалавра с минимум 3 годами опыта в создании озёр данных на крупных платформах больших данных (предпочтение отдаётся опыту работы с Azure Data Lake или Databricks).