Data Engineer and Operations Analyst

Job expired!

Приєднуйтесь до Booz Allen Hamilton як інженер з даних і аналітик операцій, щоб керувати величезним всесвітом великих даних. З поширенням Інтернету речей, машинного навчання та штучного інтелекту генерація даних досягла найвищого рівня. Використовуйте свій досвід в інженерії даних для перетворення структурованих і неструктурованих даних в дієві інсайти, які сприяють виконанню важливих місій, від виявлення шахрайства до національної розвідки та дослідження раку.

Як інженер з даних у Booz Allen, ви будете очолювати діяльність з інженерії даних у проектах з високим впливом. Розробляйте та впроваджуйте пайплайни та платформи, які надають значення різнорідним даним. Співпрацюйте з міждисциплінарною командою аналітиків, інженерів з даних, розробників і споживачів даних у динамічному, гнучкому середовищі. Використовуйте свої аналітичні навички, щоб оцінювати, проектувати, створювати та підтримувати масштабовані платформи, що надають рішення для наших клієнтів.

Працюйте з нами, щоб використовувати великі дані для трансформативних результатів. Світ не може чекати.

У Вас є:

  • Більше 5 років досвіду в розробці додатків
  • Більше 5 років досвіду в проектуванні, розробці, введенні в експлуатацію та підтримці складних додатків для обробки даних на підприємницькому рівні
  • Більше 5 років досвіду роботи з Python, SQL, Scala або Java
  • Більше 3 років досвіду у вилученні, парсингу та обробці структурованих і неструктурованих даних
  • Більше 3 років досвіду створення масштабованих ETL та ELT робочих процесів для звітування та аналітики
  • Доведений досвід співпраці у міжфункціональній команді
  • Володіння створенням скриптів та програм для трансформації даних та управління платформами
  • Підтвердження доступу до відомостей, що становлять державну таємницю (TS/SCI)
  • Ступінь бакалавра

Буде перевагою, якщо у Вас є:

  • Досвід роботи з UNIX і Linux, включаючи базові команди та Shell скриптинг
  • Досвід роботи з публічними хмарними платформами, такими як AWS, Microsoft Azure або Google Cloud
  • Досвід роботи з інструментами розподілених даних та обчислень, включаючи Spark, Databricks, Hadoop, Hive, AWS EMR, або Kafka
  • Досвід роботи з реальними даними та потоковими додатками
  • Досвід роботи з NoSQL технологіями, такими як MongoDB або Cassandra
  • Досвід роботи з рішеннями для зберігання даних, такими як AWS Redshift, MySQL або Snowflake
  • Досвід роботи з агильними інженерними практиками
  • Ступінь магістра в галузі даних або математики

Заявники, які будуть відібрані, підлягають розслідуванню безпеки та повинні відповідати критеріям допуску до класифікованої інформації. Підтвердження доступу до відомостей, що становлять державну таємницю (TS/SCI) є обов'яз