Novata est une société d'intérêt public créée et financée par un consortium unique de fondations et d'entreprises du secteur privé, dont la Ford Foundation, le réseau Omidyar, S&P Global et Hamilton Lane. Nous sommes une entreprise à but lucratif, axée sur la mission, dont l'objectif est d'habiliter les marchés privés à construire une forme de capitalisme plus inclusive et durable. En rassemblant les esprits les plus brillants des données financières, du capital-investissement, de la justice sociale et du capitalisme inclusif, nous visons à construire la meilleure technologie et les meilleurs outils pour que les marchés privés puissent mieux collecter, analyser, comparer et rapporter les données ESG (Environnementales, Sociales et de Gouvernance). Nous avons une équipe expérimentée et diversifiée qui est aussi ambitieuse pour développer une entreprise prospère que pour avoir un impact.
À propos de l'équipe
Nous sommes une équipe d'environ 45 ingénieurs et spécialistes numériques de disciplines et d'expériences variées répartis entre le Royaume-Uni et les États-Unis. Notre priorité est de satisfaire le client par une livraison continue du produit, nous nous concentrons donc sur l'apport de petites améliorations incrementielles afin de livrer un logiciel de haute qualité, fréquemment. Nous sommes de fervents croyants dans les principes agiles, nous travaillons donc en petits cycles et réfléchissons régulièrement à nos processus, apportant les modifications nécessaires pour améliorer les résultats et l'efficacité.
Salaire/ Durée
- £500-550 p/j hors IR35
- 3 mois/Q4
Exigences
Ce rôle est au sein de notre équipe produit et ingénierie, où vous serez intégré à notre nouvelle équipe de données, contribuant au développement de notre nouvelle plateforme d'analyse et de benchmarking de données. Vous aurez la chance de vous impliquer dès le début du développement de la plateforme, en jouant un rôle actif dans la définition et la mise en place d'une nouvelle plateforme de données.
Vous devrez :
- Concevoir et construire des pipelines de données basés sur Python qui peuvent gérer efficacement des données complexes.
- Gérer l'infrastructure de données, y compris les bases de données et l'entrepôt de données, en veillant à ce que l'infrastructure soit évolutive et fiable.
- Collaborer avec des scientifiques et des analystes de données pour comprendre leurs besoins en données et développer des solutions pour répondre à leurs besoins.
- Maintenir les processus CDC ETL qui déplacent les données de diverses sources vers l'entrepôt de données.
- Assurer la qualité et l'intégrité des données en mettant en œuvre des procédures de contrôle de qualité et en effectuant la validation et la vérification des données.
- Se tenir au courant des dernières tendances du secteur et des meilleures pratiques en matière d'ingénierie des données.
- Coacher et former les membres juniors de l'équipe, en veillant à ce qu'ils suivent les meilleures pratiques et en les aidant à développer et améliorer leurs compétences et leurs capacités.
- Assumer des tâches supplémentaires selon les besoins.
Vous avez :
- D'excellentes compétences en communication, et êtes capable de travailler en collaboration et dans le respect avec les autres membres de l'équipe.
- Une mentalité de start-up, êtes responsable, énergique, ambitieux, adaptable et prêt à sauter là où vous pourriez être nécessaire.
- Un bon jugement, et n'avez pas peur de prendre des décisions et d'agir dans un but et avec une intention de faire avancer notre mission.
- Une approche pragmatique de la résolution de problèmes, et appréciez l'importance de construire la bonne chose vs construire la chose de la bonne manière.
- Une grande attention aux détails, une approche sans compromis en matière de qualité et êtes engagé à offrir la meilleure expérience possible à nos utilisateurs.
- Une expérience importante et démontrable dans le développement de pipelines de données fiables et efficaces, capables de consommer et de transformer de grandes quantités de données adaptées aux clients de niveau entreprise.
- La capacité de "mettre les mains dans le cambouis" avec la manipulation de données - découpage et découpage de jeux de données pour l'analyse ad-hoc.
- Une expérience de production avec la modélisation de données SQL, idéalement dans un contexte de Data Lake / Warehouse.
On utilise et enseigne :
- Python, Meltano, Dagster et dbt pour nos pipelines de données.
- Snowflake pour notre entrepôt de données.
- AWS pour l'infrastructure, en particulier EKS, RDS et S3.
- Git pour gérer les changements.
- Docker pour emballer nos services dans des conteneurs.
- Terraform pour définir notre infrastructure orchestrée.
Restrictions
- Les candidats doivent être localisés et autorisés à travailler au Royaume-Uni. Actuellement, nous ne pouvons pas soutenir ou parrainer les demandes de visa
Avantages
- Travailler dans une startup en pleine croissance où vous pouvez avoir un impact et voir les résultats de ce que vous faites.
- Une rémunération salariale compétitive jusqu'à £85k par an, selon l'expérience.
- Approche hybride du travail avec des journées de coworking régulières dans notre bureau de Londres.
- 30 jours de congés par an, plus les jours fériés.
- Système de retraite avec une contribution de 5% de votre part et de 9% de notre part.
- Assurance médicale privée via Vitality.