AI Applications Engineer in Data&AI (She/He/They)

Job expired!

KIM JESTEŚMY:

Accenture to globalny lider w dziedzinie usług profesjonalnych, pomagający najważniejszym firmom, rządom i organizacjom na świecie w rozwijaniu ich cyfrowych możliwości, optymalizacji operacji oraz zwiększaniu przychodów. Nasze usługi obejmują Strategię i Doradztwo, Technologię, Operacje, Industry X oraz Accenture Song. Nasz Data & Applied Intelligence hub liczy ponad 250 specjalistów w Polsce, którzy doskonale radzą sobie z architekturą danych i rozwiązaniami specyficznymi dla różnych branż.

Współpracujemy z największymi gigantami technologicznymi, takimi jak Microsoft, AWS, Google, Oracle i Snowflake, aby wdrażać nowoczesne rozwiązania. Nasze kompleksowe wsparcie obejmuje definiowanie strategii po wdrożenie i rozwój rozwiązań, obejmujące wszystkie aspekty związane z Danymi i Analizą. Aby dowiedzieć się więcej o Accenture Technology Poland, prosimy odwiedzić naszą stronę internetową.

Jako Inżynier Aplikacji AI w naszym zespole Data & AI, będziesz współpracować z interesariuszami biznesowymi w celu zidentyfikowania rzeczywistych wyzwań i tworzenia zaawansowanych modeli danych wspierających podejmowanie decyzji w finansach, logistyce, marketingu i sprzedaży. Twoje obowiązki będą obejmować:

  • Rozwój i skalowanie rozwiązań AI i ML z wykorzystaniem najlepszych praktyk MLOps.
  • Rozwijanie swoich umiejętności poprzez współpracę z architektami danych, modelarzami, specjalistami DevOps i ekspertami ds. wizualizacji.
  • Elastyczne warunki pracy, w tym praca zdalna lub na miejscu w naszym biurze Accenture w Warszawie lub Krakowie.

Dołącz do nas, aby:

  • Pracować nad międzynarodowymi projektami i rozwijać swoje umiejętności w dziedzinie danych.
  • Zdobądź wgląd w różnorodny zespół składający się z ponad 250 entuzjastów danych.
  • Skorzystaj z nieustannego rozwoju poprzez warsztaty i inicjatywy rozwojowe.
  • Rozwijaj się w miejscu pracy, które ceni różnorodne perspektywy i zachęca do kreatywności.

Oto, czego będziesz potrzebować:

  • Tytuł licencjata lub magistra z zakresu ekonometrii, informatyki, statystyki, matematyki, ekonomii lub pokrewnych dziedzin.
  • Znajomość Pythona (zasady OOP, kluczowe biblioteki, testowanie, najlepsze praktyki) i SQL.
  • Znajomość metod uczenia maszynowego i statystycznych (np. szeregów czasowych, regresji, klastrowania, PCA, drzew decyzyjnych, sieci neuronowych).
  • Doświadczenie z dużymi modelami językowymi, API i popularnymi aplikacjami (RAG, chatboty, wizja, mowa, obrazy).
  • Praktyczne doświadczenie w tworzeniu kompleksowych potoków przetwarzania danych.
  • Doświadczenie z jednym lub większą liczbą dostawców usług chmurowych (GCP, AWS, Azure) i/lub platformami analityki danych (Databricks, Dataiku, Alteryx).
  • Znajomość technologii Spark i koncepcji Big Data będzie dodatkowym atutem.
  • Zrozumienie komponentów DevOps (Docker, Kubernetes, Git, Airflow, Jenkins) będzie korzystne.
  • Chęć do nauki i rozwijania swojej wiedzy funkcjonalnej oraz umiejęt