Seasoned Data Engineer - GCP/AWS, Python, SQL

Job expired!

Приєднуйтесь до Wrike: Провідної Платформи Управління Роботою

Wrike виділяється як найкраща платформа управління роботою, призначена для команд та організацій, які прагнуть щоденно співпрацювати, створювати та досягати успіху. З Wrike ви можете централізувати всі робочі процеси для усунення складнощів, підвищення продуктивності та дозволити вашій команді зосередитися на найважливіших завданнях.

Ми уявляємо світ, де кожен може вільно зосереджуватися на своїй найважливішій роботі разом.

У Wrike ми поєднуємо виклики та приємні робочі враження. Як швидко зростаюча компанія, ми пропонуємо безліч можливостей для професійного зростання. Наша талановита та енергійна команда, яка характеризується інтелектом, пристрастю, доброзичливістю та професіоналізмом, робить Wrike веселим місцем для роботи. Якщо ви володієте цими якостями, ми з нетерпінням чекаємо на вас.

www.wrike.com

Назва: Досвідчений інженер з даних - GCP/AWS, Python, SQL

Місце: Віддалено/Гібридно

  • Володіти даними та каналами даних, що забезпечують практичні інсайти в сфері клієнтів, продукту, GTM та ключових бізнес-функцій.
  • Проектувати, розробляти та підтримувати масштабовані канали даних і перетворення даних з різних інженерних та бізнес-систем (наприклад, Salesforce/CPQ, NetSuite, Marketo).
  • Співпрацювати з аналітиками для покращення моделей даних, які живлять інструменти бізнес-аналітики, збільшення доступності даних та стимулювання використання інструментів BI.
  • Розгортати моделі машинного навчання разом із командами Data Science, дотримуючись найкращих практик життєвого циклу ML.
  • Впроваджувати процеси та системи управління якістю даних, забезпечуючи точність виробничих даних та дотримання SLA.
  • Досвід створення та підтримки каналів даних у середовищах з великими обсягами даних (Data Engineering, Backend, Data Science).
  • Висока компетентність у Python.
  • Продвинуте робоче знання SQL та реляційних баз даних.
  • 7+ років досвіду з рішеннями Data Warehousing (BigQuery, Redshift, Snowflake, Vertica тощо).
  • 7+ років досвіду з оркестрацією каналів даних (Airflow, Dagster, Prefect тощо).
  • Компетентність у використанні Git, CI/CD та технологій контейнеризації.
  • Досвід роботи з Google Cloud Platform, AWS або Azure.
  • Знання архітектури баз даних.
  • Досвід значних інтеграцій з B2B постачальниками (Salesforce/CPQ, NetSuite, Marketo тощо).
  • Тверде розуміння моделювання даних (Kimball, Inmon, SCDs, Data Vault, Anchor).
  • Компетентність у використанні бібліотек даних Python (Pandas, SciPy, NumPy, Sci-Kit Learn, TF, PyTorch).
  • Досвід роботи з інструментами управління якістю даних, моніторингу та алертингу.