phData находится на переднем крае революции в том, как наши клиенты используют данные и искусственный интеллект. Как ведущий поставщик услуг, специализирующийся на приложениях для данных и услугах платформ данных, мы сотрудничаем с ведущими технологическими компаниями в современном стеке данных для предоставления передовых решений. Мы являемся евангелистами технологий, сосредотачиваясь на важных инструментах экосистемы, таких как Snowflake, AWS, Azure, dbt, Sigma, Tableau и Power BI. Наша страсть заключается в том, чтобы помогать глобальным предприятиям преодолевать их самые сложные препятствия путем разработки решений на базе искусственного интеллекта и приложений для данных и сопровождения этих решений в производстве.
phData — глобальная компания, работающая по принципу удаленности, с сотрудниками из США, Латинской Америки и Индии. Мы празднуем культуру каждого из наших членов команды и развиваем сообщество технологического любопытства, ответственности и доверия. Несмотря на наш быстрый рост, мы сохраняем неформальную и захватывающую рабочую среду. Мы гордимся тем, что нанимаем лучших исполнителей и предоставляем им автономию для достижения результатов.
- 5-кратный партнер года по версии Snowflake (2020, 2021, 2022, 2023, 2024)
- Партнер года по версии Fivetran, dbt, Alation, Matillion
- №1 Партнер по продвинутым сертификациям Snowflake
- Более 600 сертификаций по облачным технологиям (Sigma, AWS, Azure, Dataiku и др.)
- Признана лучшим местом работы в США, Индии и Латинской Америке
- Inc 5000: Самые быстрорастущие компании в США (2020-2023)
- 8+ лет работы в качестве активного инженера данных, проектирование и реализация решений для данных
- Руководство командой и/или наставничество других инженеров
- Способность разрабатывать технические решения полного цикла до производства, обеспечивая производительность, безопасность, масштабируемость и надежную интеграцию данных
- Экспертные навыки программирования на Java, Python и/или Scala
- Опыт работы с основными облачными платформами данных, включая Snowflake, AWS, Azure, Databricks и GCP
- Уверенное владение SQL и умение писать, отлаживать и оптимизировать SQL-запросы
- Навыки письменной и устной коммуникации с клиентами
- Опыт создания и проведения подробных презентаций
- Экспертиза в подробной документации решений (например, POC и дорожные карты, диаграммы последовательностей, иерархии классов, логические представления систем и т.д.)
- Степень бакалавра в области компьютерных наук или смежной области
- Опыт работы в производстве с основными платформами данных: Snowflake, AWS, Azure, GCP, Hadoop, Databricks
- Облачное и распределенное хранение данных: S3, ADLS, HDFS, GCS, Kudu, ElasticSearch/Solr, Cassandra или другие системы хранения NoSQL
- Технологии интеграции данных: Spark, Kafka, event/streaming, Streamsets, Matillion, Fivetran, NiFi, AWS Data Migration Services, Azure DataFactory, Informatica IICS, Google DataProc или другие технологии интеграции данных
- Опыт работы с несколькими источниками данных (например, очереди, реляционные базы данных, файлы, поиск, API)
- Опыт полного жизненного цикла разработки ПО, включая проектирование, документацию, реализацию, тестирование и развертывание
- Автоматизированное преобразование и курирование данных: dbt, Spark, потоковая обработка Spark, автоматизированные конвейеры
- Управ