À propos de nous
Chez Xiatech, nous comprenons l'importance de maintenir un excellent équilibre entre vie professionnelle et vie privée. Nous donnons à nos équipes les moyens de travailler à distance, leur offrant ainsi la flexibilité de travailler au moment et à l'endroit qui conviennent le mieux à leur style de vie. Lorsque le moment est venu de se consacrer au travail, nos membres d'équipe dévoués obtiennent constamment des résultats exceptionnels.
Notre pile technologique de pointe inclut des technologies Open Source, Microservices, Big Data et Cloud. Nous avons développé Xfuze, une plateforme d'hyper-intégration innovante qui offre aux organisations trois capacités fondamentales :
- Intégration des systèmes en temps réel
- Vue unique des données en temps réel
- Informations exploitables en temps réel, y compris l'analyse prédictive
Ce poste représente une opportunité unique de rejoindre notre organisation en pleine croissance basée au Royaume-Uni, qui exploite les dernières avancées technologiques. En tant qu'ingénieur des données chez Xiatech, vous ferez partie d'une équipe interfonctionnelle responsable de la conception et de la création de nouvelles fonctionnalités pour nos plateformes d'hyper-intégration et d'analyse avancée Xfuze. Votre travail inclura :
- Développer des pipelines de données en temps réel
- Créer des lacs et entrepôts de données
- Mettre en œuvre des outils innovants
Vous dépendrez du responsable de l'ingénierie et collaborerez étroitement avec l'équipe commerciale pour comprendre les exigences des clients. Votre rôle impliquera également de travailler avec notre équipe de science des données pour améliorer les données des clients et développer diverses vues de données afin de supporter les visualisations. Postulez dès aujourd'hui pour faire partie de notre équipe innovante et travailler avec des technologies avancées de nos partenaires chez Amazon, Google, DataBricks, BigEye et Tableau.
- Collaborer au sein d'une équipe interfonctionnelle pour livrer de nouvelles fonctionnalités en utilisant des méthodes agiles
- Concevoir et construire des entrepôts de données et des lacs de données
- Implémenter des pipelines de données complexes et des flux de données
- Modéliser et cartographier les données des clients, construire des vues pour BI/analytique
- Assurer la qualité des données, mettre en place des schémas d'enrichissement de données fiables
- Contribuer aux revues par les pairs et aux outils d'ingénierie tels que dataflow et terraform
- Analyser les exigences des clients et mettre en œuvre des solutions efficaces
- Contribuer à l'amélioration continue au sein de la communauté des ingénieurs de données et de votre équipe
- 3+ ans d'expérience en ingénierie ou architecture de données
- Connaissance avancée de SQL et Python
- Expérience avec Spark (PySpark) ou technologies similaires
- Construction d'entrepôts de données et de lacs de données (de préférence BigQuery)
- Développement de pipelines de données ETL en temps réel
- Travail avec des frameworks d'orchestration tels que Dataform, Airflow, et GCP Workflows
- Expérience avec les plateformes cloud, en particulier les services GCP comme GCS, Cloud Functions, et Dataproc
- Familiarité avec les outils de conteneurisation et IaC (par ex., Docker, Kubernetes, Terraform)
- Expérience dans un environnement agile (Scrum, Kanban, etc.)
- Expérience dans le domaine du commerce de détail ou avec DataBricks est un plus
- Excellentes compétences en communication et en présentation
- Innovant
- Motivé
- Résilient
- Pénétrant
- Empathique