À propos de CommentSold
CommentSold est le principal fournisseur nord-américain de technologie de vente en direct, très apprécié par G2. Nous avons permis à plus de 7 000 détaillants de petite et moyenne taille de bénéficier de nos outils de vente en direct de pointe, facilitant la vente de plus de 166 millions d'articles et générant plus de 3,8 milliards de dollars en GMV à vie. Notre technologie offre aux entreprises et aux créateurs de toutes tailles des solutions inégalées pour offrir des expériences de commerce vidéo en direct engageantes sur plusieurs canaux de vente.
Avec notre acquisition des actifs de Popshoplive, CommentSold s'est étendu au commerce direct aux consommateurs. Popshoplive est un marché de shopping en livestream axé sur la communauté qui intègre les aspects sociaux, le commerce électronique et le divertissement. En 2022, nous avons lancé Videeo, une technologie de plugin de commerce vidéo léger qui permet à tout détaillant ou marque d'intégrer et de se lancer en direct avec des expériences de commerce vidéo en direct engageantes et personnalisées en quelques jours, s'intégrant parfaitement dans leur pile de commerce électronique existante.
À propos du rôle : Ingénieur en apprentissage automatique et données
Nous recherchons un ingénieur en apprentissage automatique et données talentueux pour rejoindre notre équipe AI & Data. Ce rôle critique implique de servir en tant qu'expert en ingénierie des données senior et de liaison inter-départementale. Votre responsabilité principale sera de développer nos platesformes existantes, incluant à la fois les entrepôts de données structurées et les grands lacs de données non structurées. Ce poste est entièrement à distance, basé en Allemagne ou en Inde, avec une exigence de travailler partiellement dans les fuseaux horaires EST ou CST aux États-Unis.
- En tant que membre de l'équipe AI & Data, construire une plateforme de données d'entreprise complète et promouvoir la démocratie et la culture des données au sein de l'entreprise.
- Développer et maintenir l'entrepôt de données central et ses couches de staging, superviser les tâches d'ingestion et d'ETL pour permettre un flux fluide de données structurées.
- Scanner les sources de données internes et externes pour proposer des extensions et des mises à jour de la plateforme de données. Documenter le dictionnaire de données et les processus ETL.
- Posséder et mettre à niveau le lac de données de l'entreprise dans le cloud. Intégrer le suivi des événements et le déchargement des données dans le lac de données, y compris les fichiers texte, image et vidéo. Assurer les intégrations avec les passerelles API et les services de consommation en aval.
- Concevoir et gérer les intégrations API et les robots de données automatisés pour l'ingestion de données externes. Créer des microservices API internes pour faciliter l'échange de données entre produits, systèmes et applications tierces.
- Connecter les modèles d'apprentissage automatique et de vision par ordinateur dans les pipelines de données, concevoir le flux de données pour ces services AI.
- Collaborer étroitement avec les équipes d'ingénierie et les autres membres de l'équipe de données pour diriger ou soutenir des projets visant la création d'outils et de produits de données.
- Interagir avec divers intervenants, y compris les chefs de département et les cadres supérieurs, pour traduire les besoins commerciaux en extensions ou adaptations de nos bases de données internes.
- Diplôme de licence en informatique, apprentissage automatique ou intelligence artificielle.
- Au moins 5 ans d'expérience professionnelle en Business Intelligence, analyse de données ou rôles analytiques similaires.
- Aptitude démontrée à travailler avec des données structurées et non structurées, y compris le dépannage des processus ETL ou des intégrations API échoués.
- Maîtrise de Python (particulièrement pour la manipulation des données).
- Compétences en Spark ou TypeScript sont un plus.
- Expertise solide en SQL (testée lors du processus de recrutement).
- Bonne connaissance des services cloud AWS, en particulier des services de gestion des données AWS, et capacité à naviguer entre les interdépendances des composants individuels.
- Expérience pratique avec la mise en œuvre d'API et le transfert de données.