KIM JESTEŚMY:
Accenture to globalny lider w dziedzinie usług profesjonalnych, pomagający najważniejszym firmom, rządom i organizacjom na świecie w rozwijaniu ich cyfrowych możliwości, optymalizacji operacji oraz zwiększaniu przychodów. Nasze usługi obejmują Strategię i Doradztwo, Technologię, Operacje, Industry X oraz Accenture Song. Nasz Data & Applied Intelligence hub liczy ponad 250 specjalistów w Polsce, którzy doskonale radzą sobie z architekturą danych i rozwiązaniami specyficznymi dla różnych branż.
Współpracujemy z największymi gigantami technologicznymi, takimi jak Microsoft, AWS, Google, Oracle i Snowflake, aby wdrażać nowoczesne rozwiązania. Nasze kompleksowe wsparcie obejmuje definiowanie strategii po wdrożenie i rozwój rozwiązań, obejmujące wszystkie aspekty związane z Danymi i Analizą. Aby dowiedzieć się więcej o Accenture Technology Poland, prosimy odwiedzić naszą stronę internetową.
Jako Inżynier Aplikacji AI w naszym zespole Data & AI, będziesz współpracować z interesariuszami biznesowymi w celu zidentyfikowania rzeczywistych wyzwań i tworzenia zaawansowanych modeli danych wspierających podejmowanie decyzji w finansach, logistyce, marketingu i sprzedaży. Twoje obowiązki będą obejmować:
- Rozwój i skalowanie rozwiązań AI i ML z wykorzystaniem najlepszych praktyk MLOps.
- Rozwijanie swoich umiejętności poprzez współpracę z architektami danych, modelarzami, specjalistami DevOps i ekspertami ds. wizualizacji.
- Elastyczne warunki pracy, w tym praca zdalna lub na miejscu w naszym biurze Accenture w Warszawie lub Krakowie.
Dołącz do nas, aby:
- Pracować nad międzynarodowymi projektami i rozwijać swoje umiejętności w dziedzinie danych.
- Zdobądź wgląd w różnorodny zespół składający się z ponad 250 entuzjastów danych.
- Skorzystaj z nieustannego rozwoju poprzez warsztaty i inicjatywy rozwojowe.
- Rozwijaj się w miejscu pracy, które ceni różnorodne perspektywy i zachęca do kreatywności.
Oto, czego będziesz potrzebować:
- Tytuł licencjata lub magistra z zakresu ekonometrii, informatyki, statystyki, matematyki, ekonomii lub pokrewnych dziedzin.
- Znajomość Pythona (zasady OOP, kluczowe biblioteki, testowanie, najlepsze praktyki) i SQL.
- Znajomość metod uczenia maszynowego i statystycznych (np. szeregów czasowych, regresji, klastrowania, PCA, drzew decyzyjnych, sieci neuronowych).
- Doświadczenie z dużymi modelami językowymi, API i popularnymi aplikacjami (RAG, chatboty, wizja, mowa, obrazy).
- Praktyczne doświadczenie w tworzeniu kompleksowych potoków przetwarzania danych.
- Doświadczenie z jednym lub większą liczbą dostawców usług chmurowych (GCP, AWS, Azure) i/lub platformami analityki danych (Databricks, Dataiku, Alteryx).
- Znajomość technologii Spark i koncepcji Big Data będzie dodatkowym atutem.
- Zrozumienie komponentów DevOps (Docker, Kubernetes, Git, Airflow, Jenkins) będzie korzystne.
- Chęć do nauki i rozwijania swojej wiedzy funkcjonalnej oraz umiejęt