Offre d'emploi: Ingénieur Big Data (Analytique) chez Avaloq
Description de l'entreprise
Fondée et ayant son siège en Suisse, Avaloq étend rapidement sa présence mondiale. Avec environ 2 500 collègues répartis dans 12 pays et plus de 160 clients dans 35 pays, nous sommes un leader mondial dans la technologie et les services de gestion de patrimoine. Nous desservons des institutions financières à l'échelle mondiale, y compris des banques privées, des gestionnaires de patrimoine, des gestionnaires d'investissement, et des banques de détail et néo-banques. Notre approche axée sur la recherche et notre innovation incessante sont motivées par la passion et la créativité de nos membres d'équipe.
Nous sommes toujours à la recherche de personnes talentueuses pour nous rejoindre afin d'orchestrer l'écosystème financier et de démocratiser l'accès à la gestion de patrimoine. Avaloq offre une opportunité unique de collaborer avec certaines des plus grandes institutions financières mondiales, vous permettant de façonner et de développer votre carrière. Dans notre environnement de travail favorable et flexible, nos collègues sont habilités à atteindre leur plein potentiel.
Nous sommes l'équipe du domaine Analytique, aidant les institutions financières à adopter, utiliser et analyser facilement les données de nos produits Avaloq au sein d'un écosystème diversifié. Nous priorisons nos collègues, considérons la pensée différente comme un atout et mettons l'expérience client au cœur de notre réflexion sur la conception. Rejoignez-nous pour stimuler les interactions et les collaborations avec les clients existants et potentiels grâce à vos compétences commerciales et techniques.
Tâches Principales
- Collaborer étroitement avec les Product Owners, Business Analysts et Software Engineers à l'échelle mondiale.
- Implémenter des pipelines de données et de l'analytique de données - Exploration, extraction, traitement et ingestion de données dans divers systèmes de stockage SQL et NonSQL.
- Concevoir, développer et maintenir les nouvelles et existantes solutions sous la responsabilité de l'équipe.
- Améliorer et optimiser les fonctionnalités existantes.
- Développer et maintenir des tests automatisés.
- Prendre en charge et responsabilité de votre domaine d'expertise.
- Assurer une livraison de haute qualité et une communication efficace.
Qualifications
- Diplôme universitaire en informatique, physique, ingénierie, mathématiques ou dans un domaine comparable.
- Au moins 2-3 ans d'expérience de travail dans le secteur fintech ou financier.
- Expérience pratique de la mise en œuvre de plateformes de conteneurs, de préférence OpenShift/Kubernetes.
- Familiarité avec la technologie de streaming comme Kafka, Kafka Connect.
- Compétences analytiques, de résolution de problèmes et conceptuelles.
- Compétence dans un ou plusieurs langages de programmation et de script.
- Maitrise de l'anglais parlé et écrit.
- Expérience dans des environnements de production Big Data/Data Analytics utilisant des technologies telles que des moteurs SQL distribués/systèmes de fichiers.
- Expérience en traitement de flux, flux de données et pipelines de données.
Compétences Bonus
- Expérience avec les moteurs SQL distribués.
- Expérience dans la mise en œuvre de microservices.
- Expérience pratique avec Snowflake.
- Compréhension de la visualisation de données utilisant des logiciels comme Tableau, Qlik, PowerBI, Yellowfin.
- Expérience pratique de l'infrastructure en tant que code telle que Terraform.
- Connaissances en JavaScript et Python.
- Expérience de travail dans des équipes Agile Scrum.
- Expertise en entrepôts de données, modélisation et outils de gestion des données.
Informations Complémentaires
Nous comprenons les défis de la gestion de l'équ