Data Engineer, Client Experience Platform - Associate

Job expired!

Присоединяйтесь к BlackRock в качестве инженера по данным на платформе клиентского опыта

Вы увлечены революцией в индустрии финансовых услуг с помощью технологий? BlackRock, лидер в финансовом мире с 1988 года, ищет талантливых инженеров-программистов. Наша фирменная платформа Aladdin управляет активами стоимостью более 10 триллионов долларов США, помогая миллионам людей инвестировать для выхода на пенсию, оплатить образование, покупать дома и улучшать свое финансовое благополучие.

Данные - основа Aladdin. Наше конкурентное преимущество заключается в нашей способности потреблять, хранить, анализировать и извлекать информацию из данных. Команда платформы клиентского опыта разрабатывает интегрированные решения для настольных, веб- и мобильных каналов для различных пользователей, включая клиентов, регуляторов, инженеров и специалистов по продажам. Наша миссия – обеспечить лучшие в своем классе впечатления на протяжении всего пути клиента.

В качестве инженера-программиста вы будете играть ключевую роль в создании платформы клиентских данных в облаке, предлагающей комплексный обзор нашей системы CRM, продаж и обслуживания. Ваше внимание будет сосредоточено на создании масштабируемых конвейеров по введению данных, преобразованию данных и обеспечении их высокого качества для использования нашими глобальными клиентскими подразделениями, Консультативной службой США по благосостоянию, исполнительными командами и учеными по данным.

Как старший инженер по данным, вы будете:

  • Улучшать предложения BlackRock по дистрибуции розничных продаж и обслуживанию за счет расширения и оптимизации нашей архитектуры данных и конвейеров.
  • Создавать и оперативно реализовывать конвейеры данных для предоставления высококачественных, основанных на данных продуктов.
  • Управлять наборами данных высокого качества для внутренних и внешних пользователей и приложений.

Обязанности:

  • Возглавлять создание и обслуживание оптимизированных архитектур конвейеров данных на больших наборах данных.
  • Собирать сложные наборы данных, соответствующие требованиям бизнеса.
  • Идентифицировать, разрабатывать и внедрять внутренние улучшения процессов и сообщать об этом соответствующим технологическим командам.
  • Помогать заинтересованным сторонам с техническими вопросами, связанными с данными, и поддерживать их потребности в инфраструктуре данных.
  • Автоматизировать процессы загрузки данных и оптимизировать доставку данных в соответствии с уровнями обслуживания.
  • Обеспечивать разделение и сегрегацию данных в соответствии с требованиями политики.
  • Разрабатывать инструменты для поддержки задач ученых по данным.
  • Оставаться в курсе последних технологических тенденций в области больших данных и рекомендовать улучшения по мере необходимости.
  • Исследовать и устранять несоответствия в данных и предотвращать их повторное возникновение через сотрудничество межфункциональной команды.

Квалификации:

  • Более 6 лет практического опыта в области инженерии программного обеспечения, в основном в сфере больших данных.
  • 5+ лет опыта работы с программированием на Python или Scala, включая создание и поддержку UDF и модулей, таких как pytest.
  • 5+ лет опыта создания и оптимизации конвейеров данных, архитектур и наборов данных с использованием таких инструментов, как Airflow, DBT и Kafka.
  • Опыт работы с Spark в производственных условиях, включая планирование выполнения и управление ресурсами.
  • Опыт использования Hive, Yarn и Sqoop, включая форматы файлов, такие как ORC, PARQUET и AVRO.
  • Опыт работы с Transact SQL, No-SQL и GraphQL.
  • Доказанный опыт работы со Snowflake.
  • Опыт развертывания, обслуживания и администрирования облачных технологий (предпочтительно Azure), OpenStack, Docker, Kafka и Kubernetes.
  • Предпочтительно: Опыт работы с машинным обучением, искусственным интеллект