Senior Data Engineer

Job expired!

En Auctane, compartimos una profunda pasión por ayudar a los vendedores a cumplir sus promesas a los consumidores. Nuestra misión es potenciar el comercio a través de soluciones de entrega inigualables, permitiendo a las empresas cumplir con las crecientes expectativas de los clientes y haciendo el mundo más accesible para los consumidores globales. Las marcas de Auctane facilitan la entrega anual de miles de millones de productos por un valor de más de $200 mil millones a clientes en todo el mundo. Y estamos solo comenzando.

Somos un equipo dedicado de profesionales especializados en envíos y software. Nuestra pasión radica en ayudar a los comerciantes a llevar sus ideas e innovaciones al mercado global. Nuestra familia incluye marcas como ShipStation, ShipWorks, ShipEngine, ShippingEasy, Stamps, Endicia, Metapack, Shipsi, GlobalPost, y Packlink. Nos enorgullece asociarnos con líderes de la industria, incluidos Amazon, UPS, USPS, eBay, BigCommerce, Shopify, WooCommerce y Walmart.

La principal prioridad de nuestro equipo es ofrecer software de producción de clase mundial a nuestros clientes. Aseguramos un sistema rápido y confiable mientras proporcionamos a nuestros equipos de ingeniería las herramientas necesarias para desplegar, monitorear y mantener nuestros sistemas de producción.

Los datos son fundamentales para la estrategia de Auctane, operando a gran escala y ritmo con patrones arquitectónicos y tecnologías de vanguardia. Nuestro masivo conjunto de datos, que procesa miles de eventos por segundo, sigue creciendo rápidamente. Continuamente mejoramos nuestra plataforma de datos y pila de ingeniería para apoyar el crecimiento, habilitar soluciones innovadoras y proporcionar un servicio de primer nivel a nuestros clientes.

Fomentamos una cultura de ingeniería plana y abierta donde los datos y las evidencias priman sobre las opiniones y la jerarquía. Auctane prospera con la autonomía, el trabajo en equipo multifuncional, la energía y una pasión compartida por el negocio y nuestros clientes.

  • Diseñar, construir y gestionar nuestro lago de datos y soluciones analíticas utilizando tecnologías de datos de AWS como S3, Athena, Lambda, Kinesis, y ECS.
  • Utilizar tecnologías de punta como Airflow, dbt, y Spark para el procesamiento de datos.
  • Desarrollar marcos y soluciones para adquirir, procesar, monitorear y extraer valor de grandes conjuntos de datos.
  • Apoyar a los Analistas de Datos y Científicos de Datos con automatización, herramientas, tuberías de datos y experiencia en ingeniería de datos.
  • Entregar software y tuberías de datos confiables utilizando las mejores prácticas como la automatización, control de versiones, integración/entrega continua, pruebas y seguridad.
  • Implementar y hacer cumplir las mejores prácticas de seguridad de datos y gobernanza de datos automatizados.
  • Mentorizar a colegas junior y recibir mentoría de miembros sénior del equipo.
  • Antecedentes en Ingeniería de Software.
  • Experiencia con tuberías de datos robustas, automatizadas y confiables en Python y SQL.
  • Conocimiento de marcos de procesamiento de datos como Pandas, Polars, dbt o Spark.
  • Experiencia con el procesamiento de datos de flujo.
  • Competencia en AWS, Azure o Google Cloud.
  • Pasión por la automatización dentro de un entorno de integración/entrega continua.
  • Familiaridad con soluciones de orquestación de datos como Airflow, Oozie, Luigi, o Prefect.
  • Comprensión del diseño de bases de datos tanto relacionales como no relacionales.
  • Experiencia diseñando sistemas distribuidos y comprendiendo sus compensaciones.
  • Competencia en las mejores prácticas de ingeniería de software, sistemas de control de versiones, tuberías de despliegue automatizado como Jenkins y herramientas DevOps como Terraform.
  • Experiencia en producción gestionando grandes conjuntos de datos.
  • Experiencia con herramientas de inteligencia empresarial y analítica (Tableau, Looker, Power BI).
  • Comprensión de los problemas de PII y consideraciones de seguridad de datos.
  • Experiencia con tecnologías de big data en la nube como EMR, Athena (Trino), Glue, BigQuery, Dataproc, Dataflow.
  • Expertise