Приєднуйтесь до EY: Створіть Унікальну Кар'єру та Внесіть Вклад у Кращий Світ Роботи
У EY ми непохитно дотримуємось високих етичних стандартів та чесності. Ми шукаємо кандидатів, які поділяють ці цінності. Відкрийте для себе можливість розвивати свою кар'єру в підтримуючому, глобальному та інклюзивному середовищі, яке використовує передові технології. Ваш унікальний голос і погляд можуть допомогти формувати майбутнє EY. Приєднуйтесь до нас, щоб створити виключний досвід для себе і кращий робочий світ для всіх.
Локація: Даллас, Техас
Job ID: 1512597
Як Інженер Даних у EY, ви будете:
- Співпрацювати для розробки рішень з використанням провідних платформ великих даних та хмарних технологій, таких як Azure, Databricks, GCP, Cloudera та інші.
- Оцінювати переваги різних технологічних рішень, щоб робити обґрунтовані рекомендації.
- Перетворювати прототипи науки про дані у виробничі системи, що обробляють великі обсяги даних.
- Проектувати та впроваджувати рішення для агрегування даних, вдосконалювати базові процедури управління даними і інтеграцію нових технологій управління даними.
- Створювати канали збору даних для підтримки різних проєктів.
У своїй ролі ви будете:
- Керувати та мотивувати різноманітні команди з різними навичками і бекграундами.
- Послідовно надавати якісні послуги, контролюючи прогрес і підтримуючи довгострокові відносини з клієнтами.
- Розвивати можливості для бізнесу.
Тип: Повна зайнятість
Години: Понеділок - п’ятниця, 8:30-17:30 (40 годин на тиждень)
Кандидати повинні відповідати наступним критеріям:
- Ступінь бакалавра в галузі інформатики, математики, інженерії або суміжній сфері з 5 роками прогресивного досвіду, або ступінь магістра з 4 роками досвіду.
- 4 роки практичного досвіду розробки.
- 3 роки досвіду в хмарних обчисленнях, побудові даних, моделюванні даних та впровадженні AI/ML моделей.
- Досвід роботи на позиціях AI/ML Engineer, Cloud Data Engineer або Data Architect з принаймні одним завершеним проєктом.
- Досвід роботи з мовами програмування, такими як Java, Python або Scala.
- Досвід роботи з такими технологіями, як Kafka, NiFi, Hadoop або Spark.
- Досвід роботи з інструментами запитів великих даних, такими як Pig, Hive або Impala.
- Досвід роботи з NoSQL базами даних, такими як MongoDB, Cassandra або Neo4J.
- Досвід в обробці даних, очищенні даних, ETL, традиційних зберіганнях даних та постачанні даних.
- 1 рік досвіду з GCP, AWS або Azure.
- 3 роки досвіду в структурах даних, моделюванні даних і архітектурі програмного забезпечення.
<