Portfolio Data Engineer

Job expired!

Addepar - мировой лидер в области технологий и данных, приверженный предоставлению инвестиционным профессионалам точной и обоснованной информации для их клиентов. Наша платформа, которой доверяют сотни тысяч пользователей за последнее десятилетие, агрегирует данные по портфелям, рынкам и клиентам на сумму более 5 триллионов долларов. Работая более чем в 40 странах, Addepar беспрепятственно интегрируется с более чем 100 программными, данными и сервисными партнерами, предлагая комплексное решение, адаптированное для различных фирм и случаев использования. Мы поддерживаем глобальную гибкую рабочую силу с офисами в Силиконовой долине, Нью-Йорке, Солт-Лейк-Сити, Чикаго, Лондоне, Дублине, Эдинбурге и Пуне.

Как часть команды платформы Addepar, подразделение интеграции данных портфелей играет важную роль в реализации нашей миссии. Обязанности нашей команды охватывают сбор данных, их преобразование, очистку, разрешение неоднозначностей, моделирование, а также инструменты и инфраструктуру, необходимые для интеграции данных портфеля клиентов. Наша платформа предоставляет централизованное хранилище с самоописанием (Data Lake), сервисы данных с API, конвейер интеграции и надежную аналитическую инфраструктуру.

Мы ищем преданного своему делу инженера данных для разработки новых интеграций данных и поддержания существующих процессов, улучшая эффективность нашей платформы данных. Вы будете играть ключевую роль в создании и автоматизации функциональности внутри наших распределенных конвейеров данных, пишя код PySpark, интегрированный в наш Databricks Data Lake. С приобретением опыта вы будете выполнять все более сложные проекты, направленные на значительное увеличение пропускной способности поглощения данных Addepar. Эта высоко заметная роль имеет решающее значение для роста Addepar и удовлетворенности клиентов, минимизируя ручные усилия и максимально увеличивая автоматизацию.

  • Приоритизировать и выполнять индивидуальные задачи проектов и соблюдать сроки.
  • Разрабатывать конвейеры для поддержки поглощения, анализа и обогащения финансовых данных в сотрудничестве с бизнес-аналитиками данных.
  • Улучшать существующие конвейеры для повышения их пропускной способности и точности данных.
  • Создавать и поддерживать эффективные процессные контроля и точные метрики для обеспечения качества стандартов и ожиданий организации.
  • Сотрудничать с командами по продукции и инженерии для проектирования, тестирования и внедрения новых процессов и инструментов для улучшения качества данных и операционной эффективности.
  • Идентифицировать возможности автоматизации и внедрять улучшения.
  • Понимать модели данных и схемы и сотрудничать с другими инженерными командами для рекомендуемых обновлений и изменений.
  • 1-3 года профессионального опыта в области инженерии данных или анализа.
  • Опыт объектно-ориентированного программирования, особенно с PySpark/Python.
  • Знание SQL и концепций реляционных баз данных.
  • Опыт в моделировании данных, визуализации и конвейерах ETL.
  • Знание финансовых концепций (например, акции, облигации и т.д.) является преимуществом, но не обязательно.
  • Страсть к FinTech и решению сложных проблем в управлении инвестициями.
  • Действовать как владелец: Действовать с намерением, целью и заботой. Владеть результатами.
  • Создавать вместе: Сотрудничать, чтобы найти лучшие решения и предложить долгосрочную ценность.
  • Защищать наших клиентов: Превосходить ожидания клиентов. Их успех - наш успех.
  • Двигать инновации: Подходить к решению проблем смело и без ограничений, чтобы преобразовать отрасль.
  • Принять обучение: Взаимодействовать с нашим сообществом, чтобы расширить перспективы и принять умонастроение роста.