À propos d'Appier
Appier est une entreprise de logiciels en tant que service (SaaS) qui utilise l'intelligence artificielle (IA) pour alimenter la prise de décision en entreprise. Fondée en 2012 avec une vision de démocratisation de l'IA, la mission d'Appier est de transformer l'IA en ROI en rendant les logiciels intelligents. Appier a maintenant 17 bureaux à travers l'APAC, l'Europe et les États-Unis, et est cotée à la Bourse de Tokyo (Numéro de ticker : 4180). Visitez www.appier.com pour plus d'informations.
À propos du poste
Les solutions d'Appier sont alimentées par des technologies propriétaires d'apprentissage profond et d'apprentissage automatique pour permettre à chaque entreprise d'utiliser l'IA pour transformer les données en informations commerciales et décisions. En tant qu'ingénieur logiciel, Backend de données, vous serez impliqué dans l'élaboration de composants critiques de cette plateforme.
Responsabilités
- Concevoir, développer et maintenir des API RESTful en utilisant Python.
- Construire et gérer des entrepôts de données robustes en utilisant Trino/Presto et Pinot.
- Concevoir et développer des pipelines de données en utilisant Apache Airflow et Apache Spark.
- Travailler en étroite collaboration avec des équipes interfonctionnelles pour développer des outils d'automatisation qui rationalisent les opérations quotidiennes.
- Mettre en œuvre des systèmes de surveillance et d'alerte de pointe pour garantir des performances et une stabilité système optimales.
- Répondre aux requêtes des applications de manière opportune et efficace, assurant une haute satisfaction du client.
- Travailler sur des plateformes cloud telles qu'AWS et GCP, en exploitant leurs capacités pour optimiser les opérations de données.
- Utiliser Kubernetes (k8s) pour l'orchestration de conteneurs afin de faciliter le déploiement et la mise à l'échelle efficaces des applications.
À propos de vous
[Qualifications minimales]
- Diplôme BS/BA en informatique.
- Plus de 3 ans d'expérience dans la construction et l'exploitation de systèmes ou d'applications distribués à grande échelle
- Expérience dans le développement Kubernetes, Linux/Unix
- Expérience dans la gestion de lac de données ou d'entrepôt de données
- Expertise dans le développement de structures de données, d'algorithmes sur des plates-formes Big Data
- Capacité à fonctionner efficacement et de manière autonome dans un environnement dynamique et fluide
- Capacité à travailler dans un environnement d'équipe en mouvement rapide et à jongler avec de nombreuses tâches et projets
- Envie de changer le monde de manière significative en étant un apprenant et un constructeur autodidacte
[Qualifications préférées]
- Contribuer à des projets open source est un énorme plus (veuillez inclure votre lien github)
- Expérience de travail avec Python, Scala/Java est un plus
- Expérience avec Hadoop, Hive, Flink, Presto/Trino et les systèmes de données volumineuses associés est un plus
- Expérience avec le Cloud Public comme AWS ou GCP est un plus