Інженер-продуктолог I - Великі дані

  • Full Time
Job expired!

Опис компанії

Experian використовує силу даних для створення можливостей для споживачів, бізнесу та суспільства. Ми збираємо, аналізуємо та обробляємо дані так, як це не вдається іншим. Ми допомагаємо людям отримувати фінансовий контроль та доступ до фінансових послуг, бізнесу - приймати розумніші рішення та процвітати, кредиторам - відповідально надавати позики, а організаціям - запобігати шахрайству з ідентифікацією та злочинності. Протягом понад 125 років ми допомагали споживачам і клієнтам розвиватися, а економіці та громадам - процвітати, і ми ще не завершили. Наших 17 800 співробітників у 45 країнах вірять, що можливості для вас та нашого світу збільшуються. Ми інвестуємо у нові технології, талановитих людей та інновації для внеску у краще майбутнє.

Опис роботи

Experian India шукає аналітика даних для приєднання до команди розробки кредитного бюро. Ідеальний кандидат повинен мати сильний аналітичний розум, бути технічним і новаторським мислителем, мати гостре вміння розв'язувати проблеми та невитрималість до неефективності в розробці та доставленні програмного забезпечення. Кандидат також повинен мати відмінні письмові, усні та міжособистісні навички спілкування, а також сильне бажання постійно вчитися про різні продукти та технології. Ви будете працювати над великою даними в рамках команди, яка співпрацює і працює разом для досягнення спільних цілей. Команда відповідає за проектування, розробку та підтримку додатка.

Що ви будете робити

  • Використовуйте свої навички інженерії програмного забезпечення, включаючи Java, Spark, Python, Scala, щоб аналізувати різнорідні, складні системи та спільно проектувати нові продукти та послуги
  • Інтегрувати нові джерела даних та інструменти
  • Реалізувати масштабовані та надійні стратегії інтеграції розподілених даних
  • Мати здатність наставляти та надавати архітектурний та проектний керівництво розробникам на місці/за кордоном
  • Співпрацювати з іншими командами для проектування, розробки та розгортання інструментів обробки даних, які підтримують як оперативні, так і продуктові випадки використання.
  • Аналізувати великі набори даних за допомогою компонентів з екосистеми Hadoop
  • Керувати функціональними характеристиками продукту від розробки, тестування до виробничого розгортання
  • Оцінювати технології великого обсягу даних та створювати прототипи рішень для покращення нашої архітектури обробки даних
  • Автоматизувати все, що можливо

Кваліфікація

Що вам потрібно принести на вечірку

  • Бакалавр інформатики або комп'ютерної інженерії або еквівалент
  • 5 - 6 років досвіду в доставці корпоративних програмних рішень
  • Володіння Spark, Scala, Python, технології AWS Cloud
  • 3+ років досвіду в різних технологіях Hadoop/Spark, таких як Hadoop, MapReduce, HDFS, HBase, Hive, Flume, Sqoop, Kafka, Scala
  • Стратегічне вміння працювати з даними, схемами, моделями даних, приносячи ефективність до циклу життя великих даних
  • Здатність швидко розуміти технічні та бізнес вимоги та перетворювати їх на технічні реалізації
  • Досвід роботи з методологіями Agile Development
  • Досвід роботи з протоколами прийому даних та перетворення
  • Глибоке розуміння методологій розробки безпечних додатків
  • Досвід розробки мікросервісів за допомогою фреймворку Spring - це плюс
  • Досвід роботи з Airflow та Python вітається
  • Розуміння необхідності автоматизованого QA у відношенні до великих даних
  • Сильні навички об'єктно-орієнтованого проектування та аналізу
  • Відмінні письмові та усні навички комунікації

Додаткова інформація

Чому ми

  • Ми високопродуктивна команда, але ми завжди впевнені відзначати успіх
  • Ми пропонуємо надійні кар'єрні та міжнародні можливості для високопродуктивних співробітників
  • Ми вкладаємо великий капітал у наші продукти та наших людей
  • Ми пропонуємо навчання та підтримку від досвідчених експертів з предмету та менеджерів поряд з відведеним часом для навчання та розвитку