Senior Data Engineer

Job expired!

Chez Auctane, nous partageons une passion profonde pour aider les vendeurs à tenir leurs promesses envers les consommateurs. Notre mission est de renforcer le commerce grâce à des solutions de livraison inégalées, permettant aux entreprises de répondre aux attentes croissantes des clients et de rendre le monde plus accessible aux consommateurs du monde entier. Les marques d'Auctane facilitent la livraison annuelle de milliards de produits d'une valeur de plus de 200 milliards de dollars aux clients du monde entier. Et ce n'est que le début.

Nous sommes une équipe dédiée de professionnels spécialisés dans l'expédition et les logiciels. Notre passion réside dans l'aide aux commerçants pour qu'ils apportent leurs idées et innovations sur le marché mondial. Notre famille comprend des marques telles que ShipStation, ShipWorks, ShipEngine, ShippingEasy, Stamps, Endicia, Metapack, Shipsi, GlobalPost et Packlink. Nous nous associons fièrement avec des leaders de l'industrie, notamment Amazon, UPS, USPS, eBay, BigCommerce, Shopify, WooCommerce et Walmart.

La priorité absolue de notre équipe est d'offrir des logiciels de production de classe mondiale à nos clients. Nous assurons un système rapide et fiable tout en fournissant à nos équipes d'ingénierie les outils nécessaires pour déployer, surveiller et maintenir nos systèmes de production.

Les données sont essentielles à la stratégie d'Auctane, fonctionnant à grande échelle et à un rythme soutenu avec des modèles d'architecture et des technologies de pointe. Notre vaste ensemble de données, qui traite des milliers d'événements par seconde, continue de croître rapidement. Nous améliorons continuellement notre plateforme de données et notre pile technologique pour soutenir la croissance, permettre des solutions innovantes et fournir un service de qualité à nos clients.

Nous favorisons une culture d'ingénierie ouverte et horizontale où les données et les preuves priment sur les opinions et la hiérarchie. Auctane prospère grâce à l'autonomie, au travail d'équipe interfonctionnel, à l'énergie et à une passion commune pour l'entreprise et nos clients.

  • Concevoir, construire et gérer notre lac de données et nos solutions d'analytique en utilisant les technologies de données AWS telles que S3, Athena, Lambda, Kinesis et ECS.
  • Utiliser des technologies de pointe telles que Airflow, dbt et Spark pour le traitement des données.
  • Développer des cadres et des solutions pour acquérir, traiter, surveiller et extraire de la valeur d'ensembles de données volumineux.
  • Soutenir les analystes et les scientifiques des données avec l'automatisation, les outils, les pipelines de données et l'expertise en ingénierie des données.
  • Fournir des logiciels et des pipelines de données fiables en utilisant les meilleures pratiques telles que l'automatisation, le contrôle de version, l'intégration/livraison continue, le test et la sécurité.
  • Mettre en œuvre et appliquer les meilleures pratiques de sécurité et de gouvernance des données automatisées.
  • Encadrer les collègues juniors et recevoir des conseils de la part des membres seniors de l'équipe.
  • Expérience en ingénierie logicielle.
  • Expérience avec des pipelines de données robustes, automatisés et fiables en Python et SQL.
  • Connaissance des cadres de traitement des données tels que Pandas, Polars, dbt ou Spark.
  • Expérience avec le traitement des données en continu.
  • Maîtrise d'AWS, Azure ou Google Cloud.
  • Passion pour l'automatisation dans un environnement d'intégration/livraison continue.
  • Familiarité avec les solutions d'orchestration des données telles que Airflow, Oozie, Luigi ou Prefect.
  • Compréhension de la conception des bases de données relationnelles et non relationnelles.
  • Expérience dans la conception des systèmes distribués et compréhension de leurs compromis.
  • Compétence dans les meilleures pratiques en ingénierie logicielle, les systèmes de contrôle de version, les pipelines de déploiement automatisés comme Jenkins et les outils DevOps comme Terraform.
  • Expérience en production avec la gestion de grands ensembles de données.
  • Expérience avec les outils d'intelligence d'affaires et d'analyse