Inżynier Danych do Analizy, Automatyzacji i AI

  • Full Time
Job expired!

Opis firmy

Czy chciałbyś, aby korzystne technologie były kształtowane przez Twoje pomysły? Czy to w obszarach rozwiązań mobilności, dóbr konsumpcyjnych, technologii przemysłowych czy energii i technologii budowlanej - z nami masz szansę poprawić jakość życia na całym świecie. Witamy w Bosch.

Opis stanowiska

Korzystając z elastycznych metod pracy, nasze wielokulturowe, interdyscyplinarne zespoły służą jako centrum innowacji dla procesu Procure-to-Pay (P2P), dostarczając naszym wewnętrznym partnerom biznesowym najnowocześniejsze usługi.

W P2P skupiamy się na: Procure to Order, optymalizacji żądania zakupu do zamówienia, głównej bazie danych dostawców i bazie danych materiałów, zarządzaniu fakturami, a także analizie danych, eksploracji danych i robotyce. Jako inżynier danych w zespole GS/P2P Purpose Team Analytics, Automation & AI, jesteś odpowiedzialny za:
• Przekładanie potrzeb biznesowych na techniczne rozwiązania oparte na danych i rozwijanie Data Pipelines dla analizy różnorodnych danych (faktury, zamówienia, wyceny itp.);
• Pracę nad wizualizacją danych dla przejrzystości procesu i śledzenia KPI;
• Udzielanie wsparcia technicznego i konsultacji innym zespołom w zakresie ekstrakcji danych, przekształcania i zagadnień SQL;
• Analizowanie, organizowanie i łączenie surowych danych z różnych źródeł;
• Przygotowywanie danych do przeprowadzania skomplikowanej analizy danych i raportowania, a także do modelowania przewidywań i preskrypcji;
• Eksplorowanie sposobów na poprawę jakości i niezawodności danych, identyfikowanie okazji do pozyskiwania danych;
• Ścisłą współpracę z naukowcami danych i ekspertami procesowymi na rzecz tworzenia różnych produktów danych.

Wymagania

  • Minimum 2-3 lata doświadczenia jako inżynier danych lub w pokrewnych dziedzinach;
  • Potwierdzone doświadczenie w budowaniu łańcuchów danych z narzędziami ETL;
  • Biegłość w SQL, Python oraz narzędziach do wizualizacji danych, takich jak PowerBI czy Tableau;
  • Doświadczenie z konteneryzacją, tworzeniem API, obliczeniami rozproszonymi (Openshift, Kubernetes);
  • Doświadczenie z chmurą Azure lub MLOps jest bardzo mile widziane.