В Unify Consulting мы выделяемся из толпы, и мы верим, что и вы тоже. Мы - коллектив страстных, любознательных и опытных консультантов, нацеленных на раскрытие потенциала и достижение превосходства. Мы объединяем смелых лидеров, чтобы создавать позитивное влияние на мир. Мы приглашаем инновационных сотворцов, строителей сообществ и вестников истины присоединиться к нам в нашей миссии.
Мы активно ищем опытного Архитектора/Инженера данных для присоединения к нашей динамичной команде. Эта роль включает в себя проектирование и внедрение надежных решений для данных, которые приносят значительную пользу нашим клиентам. Успешный кандидат будет сотрудничать с мультидисциплинарными командами для определения стратегий данных, архитектуры масштабируемых систем данных и поддержания целостности, безопасности и оптимальной производительности активов данных. Ваш опыт позволит клиентам раскрыть полный потенциал их данных, обеспечивая стратегические прозрения и лучшее принятие решений.
- Разрабатывать и внедрять комплексные стратегии данных.
- Создавать и поддерживать детальные модели данных и проектировать высокопроизводительные системы баз данных.
- Обеспечивать бесперебойную интеграцию данных, поддерживать качество данных и строгую безопасность данных и соответствие нормативным требованиям.
- Сотрудничать с мультидисциплинарными командами для мониторинга производительности и рекомендации технологических улучшений.
- 8+ лет опыта работы на позициях инженера по данным или инженера программного обеспечения.
- Доказанный опыт в области интеграции данных, хранения данных, моделирования данных и архитектуры платформы данных.
- 3+ лет опыта работы со Snowflake. Наличие сертификата SnowPro является значительным преимуществом.
- Владение работой с большими наборами данных и технологиями больших данных, предпочтительно облачными (например, Snowflake, Databricks, Redshift, Azure SQL Data Warehouse, MongoDB, Cosmos).
- Опыт построения диаграмм и коммуникации различных техник моделирования баз данных и архитектуры облака.
- Практический опыт работы с инструментами и фреймворками ETL/ELT (например, Airflow, DBT, AWS Lambda, Spark, Informatica PowerCenter/ICS, Talend, Fivetran/HVR, Matillion, AWS Glue).
- Продвинутое владение SQL и Python (обязательно). Знание PySpark, Scala или Java будет плюсом.