Ви спеціаліст з аналізу даних із значним досвідом у Data Lake/Hadoop? Ви досягаєте успіху у вирішенні найскладніших завдань із великим обсягом даних у світі сьогодні (мільярди записів)? Ви захоплюєтесь роботою на місці в різноманітних бізнес-середовищах і керівництвом командами через високоефективні проекти, використовуючи найсучасніші технології аналізу даних? Ви шукаєте кар'єрний шлях, який відповідає швидкому прийняттю хмарних обчислень?
У Amazon Web Services (AWS) ми шукаємо високотехнічних архітекторів даних для співпраці з нашими клієнтами та партнерами над ключовими проектами. Наші консультанти розробляють, впроваджують та реалізують проекти аналізу даних, які дозволяють нашим клієнтам використовувати свої дані для бізнес-інсайтів. Ці проекти професійних послуг будуть зосереджені на рішеннях для клієнтів, включаючи дані та бізнес-аналітику, машинне навчання, а також обробку пакетних і реального часу даних.
- Визначення та впровадження архітектур даних (Data Lake, Lake House, Data Mesh тощо).
- Проведення коротких проектів на місці, підтверджуючи використання сервісів AWS Data для підтримки нових рішень розподілених обчислень як у приватних, так і в публічних хмарних сервісах.
- Проведення технічних оцінок на місці з партнерами та клієнтами.
- Участь у передпродажних візитах, розуміння вимог клієнтів та створення пакетних пропозицій сервісів з аналітики даних.
- Залучення бізнесу та технічних зацікавлених сторін клієнтів для створення переконливого бачення підприємства, керованого даними, в їхньому середовищі.
- Створення нових артефактів, що сприяють повторному використанню коду.
- Співпраця з командою продажів AWS, передпродажною, навчальною та підтримуючою командами для допомоги партнерам та клієнтам у навчанні та використанні сервісів AWS таких як Athena, Glue, Lambda, S3, DynamoDB, Amazon EMR та Amazon Redshift.
Вимоги до подорожей: Оскільки це роль з клієнтським обличчям, можливо, вам доведеться подорожувати до місць клієнтів та надавати професійні послуги до 50% часу.
Ми готові найняти кандидатів для роботи з одного з наступних місць: Богота, Колумбія
- Досвід впровадження сервісів AWS в різних розподілених обчислювальних середовищах
- Більше 3 років досвіду впровадження платформи Data Lake/Hadoop
- Більше 2 років практичного досвіду у впровадженні та налаштуванні продуктивності фреймворків Hadoop/Spark
- Досвід з Apache Hadoop і екосистемою Hadoop
- Володіння одним або кількома відповідними інструментами (наприклад, Sqoop, Flume, Kafka, Oozie, Hue, Zookeeper, HCatalog, Solr, Avro)
- Практичний досвід керівництва великими, повноцикловими проектами підприємницьких сховищ даних (EDW) та аналітики, включаючи міграції до Amazon Redshift