Blockchain.com est la première plateforme logicielle au monde pour les actifs numériques. Proposant la plus grande plateforme blockchain en production dans le monde, nous partageons la passion de coder, de créer et, finalement, de construire un avenir financier ouvert, accessible et équitable, une pièce logicielle à la fois.
Nous recherchons un Ingénieur des Données talentueux pour rejoindre notre équipe de Data Science et travailler depuis notre bureau à Paris. Le groupe fait partie d'une équipe de DS plus grande, informant toutes les décisions de produits et créant des modèles et des infrastructures pour améliorer l'efficacité, la croissance et la sécurité. Pour cela, nous utilisons des données provenant de diverses sources et de qualités variables. Nos processus ETL automatisés servent aussi bien l'entreprise au sens large (sous forme de tables simplifiées de statistiques agrégées et de tableaux de bord) que l'équipe de Data Science elle-même (nettoyage et traitement des données à des fins d'analyse et de modélisation, garantissant la reproductibilité).
Nous recherchons une personne ayant de l'expérience dans la conception, la construction et la maintenance d'une infrastructure de données évolutive et robuste qui rend les données facilement accessibles à l'équipe de Data Science et au public plus large via différents outils. En tant qu'ingénieur des données, vous serez impliqué dans tous les aspects de l'infrastructure de données, de la compréhension des goulets d'étranglement et des exigences actuels à la garantie de la qualité et de la disponibilité des données. Vous collaborerez étroitement avec des data scientists, des ingénieurs de plateforme et des ingénieurs front-end, définissant les exigences et concevant de nouveaux processus de données pour le traitement en continu et par lots des données, ainsi que pour la maintenance et l'amélioration des processus existants. Nous recherchons une personne passionnée par les données de haute qualité qui comprend leur impact dans la résolution de problèmes réels. Être proactif dans l'identification des problèmes, fouiller en profondeur dans leur source et développer des solutions sont au cœur de ce rôle.
JUNIOR :
Ce que vous ferez
- Maintenir et faire évoluer l'infrastructure actuelle du lac de données et chercher à la faire évoluer pour de nouvelles exigences
- Maintenir et étendre notre infrastructure de données centrale et nos pipelines de données et ETL existants
- Fournir les meilleures pratiques et les cadres pour les tests de données et la validation et garantir la fiabilité et la précision des données
- Concevoir, développer et mettre en œuvre des outils et des produits de visualisation et d'analyse de données.
Ce dont vous aurez besoin
- Un diplôme de licence en Informatique, Mathématiques Appliquées, Ingénierie ou tout autre domaine lié à la technologie
- Une expérience préalable dans un projet ou un rôle d'ingénierie des données
- Maîtrise du Python
- Expérience précédente avec les pipelines ETL et le traitement des données
- Bonne connaissance des bases de données SQL et no-SQL
- Bonne connaissance des principes de codage, y compris la Programmation Orientée Objet
- Expérience avec Git
Il serait agréable d'avoir
- Expérience avec Airflow, Google Composer ou Kubernetes Engine
- Expérience de travail avec Google Cloud Platform
- Expériences avec d'autres langages de programmation, comme Java, Kotlin ou Scala
- Expérience avec Spark ou d'autres cadres Big Data
- Expérience avec les technologies distribuées et en temps réel (Kafka, etc.)
- 1-2 années d'expérience commerciale dans un rôle similaire
MILIEU DE GAMME :
Ce que vous ferez
- Maintenir et faire évoluer l'infrastructure de données actuelle et chercher à la faire évoluer pour de nouvelles exigences
- Maintenir et étendre notre infrastructure de données centrale et nos pipelines de données et ETL existants
- Fournir les meilleures pratiques et les cadres pour les tests de données et la validation et garantir la fiabilité et l'exactitude des données
- Concevoir, développer et mettre en œuvre des outils de visualisation et d'analyse de données et des produits de données.
Ce dont vous aurez besoin
- Un diplôme de licence en Informatique, Mathématiques Appliquées, Ingénierie ou tout autre domaine lié à la technologie
- Une expérience préalable dans un rôle d'ingénierie des données
- Maîtrise du Python
- Expérience précédente avec les pipelines ETL
- Expérience de travail avec Google Cloud Platform
- Connaissance approfondie des bases de données SQL et no-SQL
- Connaissance approfondie des principes de codage, y compris la Programmation Orientée Objet
- Expérience avec Git
Il serait agréable d'avoir
- Expérience avec l'optimisation du code, le traitement parallèle
- Expérience avec Airflow, Google Composer ou Kubernetes Engine
- Expériences avec d'autres langages de programmation, comme Java, Kotlin ou Scala
- Expérience avec Spark ou d'autres cadres Big Data
- Expérience avec les technologies distribuées et en temps réel (Kafka, etc.)
- 2-5 ans d'expérience commerciale dans un rôle similaire
SENIOR :
Ce que vous ferez
- Maintenir et faire évoluer l'infrastructure actuelle du lac de données et chercher à la faire évoluer pour de nouvelles exigences
- Maintenir et étendre notre infrastructure de données centrale et nos pipelines de données et ETL existants
- Fournir les meilleures pratiques et les cadres pour les tests de données et garantir la fiabilité et l'exactitude des données
- Concevoir, développer et mettre en œuvre des outils de visualisation et d'analyse de données et des produits de données.
Ce dont vous aurez besoin
- Un diplôme de licence en Informatique, Mathématiques Appliquées, Ingénierie ou tout autre domaine lié à la technologie
- Une expérience préalable dans un rôle d'ingénierie des données
- Maîtrise du Python
- Expérience à la fois dans les pipelines de données en traitement par lots et en continu
- Expérience de travail avec Google Cloud Platform
- Connaissance approfondie des bases de données SQL et no-SQL
- Connaissance approfondie des principes de codage, y compris la Programmation Orientée Objet
- Expérience avec Git
Il serait agréable d'avoir
- Expérience avec l'optimisation du code, le traitement parallèle
- Expérience avec Airflow, Google Composer ou Kubernetes Engine
- Expériences avec d'autres langages de programmation, comme Java, Kotlin ou Scala
- Expérience avec Spark ou d'autres cadres Big Data
- Expérience avec les technologies distribuées et en temps réel (Kafka, etc.)
- 5-8 ans d'expérience commerciale dans un rôle similaire
STAFF :
Ce que vous ferez
- Maintenir et faire évoluer l'infrastructure de données actuelle et chercher à l'évoluer pour de nouvelles exigences
- Maintenir et étendre notre infrastructure de données centrale et nos pipelines de données et ETL existants
- Fournir les meilleures pratiques et les cadres pour les tests de données et garantir la fiabilité et l'exactitude des données
- Concevoir, développer et mettre en œuvre des outils de visualisation et d'analyse de données et des produits de données.
- Jouer un rôle critique dans l'aide à la mise en place des directions et des buts de l'équipe
- Construire et expédier du code de haute qualité, fournir des revues de code approfondies, des tests, un suivi et des changements proactifs pour améliorer la stabilité
- Vous êtes celui qui met en œuvre la partie la plus difficile du système ou de la fonctionnalité.
Ce dont vous aurez besoin
- Un diplôme de licence en Informatique, Mathématiques Appliquées, Ingénierie ou tout autre domaine lié à la technologie
- Une expérience préalable dans un rôle d'ingénierie des données
- Maîtrise du Python
- Expérience à la fois dans les pipelines de données en traitement par lots et en continu
- Expérience de travail avec Google Cloud Platform
- Connaissance approfondie des bases de données SQL et no-SQL
- Connaissance approfondie des principes de codage, y compris la Programmation Orientée Objet
- Expérience avec Git
- Capacité à résoudre des problèmes techniques que peu d'autres peuvent faire
- Capacité à diriger/coordonner le déploiement et les lancements de grandes initiatives
Il serait agréable d'avoir
- Expérience avec l'optimisation du code, le traitement parallèle
- Expérience avec Airflow, Google Composer ou Kubernetes Engine
- Expériences avec d'autres langages de programmation, comme Java, Kotlin ou Scala
- Expérience avec Spark ou d'autres cadres Big Data
- Expérience avec les technologies distribuées et en temps réel (Kafka, etc.)
- 8+ ans d'expérience commerciale dans un rôle similaire
RÉMUNÉRATION & AVANTAGES
- Salaire à temps plein basé sur l'expérience et participation significative dans une entreprise de premier plan dans l'industrie
- Modèle hybride de travail à domicile & emplacement de bureau génial au cœur de Paris
- Politique de vacances illimitée ; travaillez dur et prenez du temps quand vous en avez besoin
- Équipement Apple
- L'opportunité d'être un acteur clé et de construire votre carrière dans une entreprise technologique en pleine expansion et à l'échelle mondiale dans un domaine émergent
- Culture de travail flexible
Blockchain s'engage en faveur de la diversité et de l'inclusion sur le lieu de travail et est fière d'être un employeur offrant l'égalité des chances. Nous interdisons toute discrimination et tout harcèlement de quelque nature que ce soit sur la base de la race, de la religion, de la couleur, de l'origine nationale, du sexe, de l'expression de genre, du sexe, de l'orientation sexuelle, de l'âge, de l'état civil, du statut de vétéran, du statut de handicap ou de toute autre caractéristique protégée par la loi. Cette politique s'applique à toutes les pratiques d'emploi au sein de notre organisation, y compris l'embauche, le recrutement, la promotion, la résiliation, la mise à pied, le rappel, le congé, l'apprentissage. Blockchain prend des décisions d'embauche basées uniquement sur les qualifications, le mérite et les besoins commerciaux au moment.