Uwolnij swój potencjał w TE Connectivity
W TE Connectivity uwolnisz swój potencjał, współpracując z różnorodnym zespołem z różnych środowisk i branż, aby tworzyć bezpieczniejszy, bardziej zrównoważony i połączony świat.
Jako Programista AI w TE Connectivity będziesz rozwiązywać skomplikowane problemy i pomagać interesariuszom w podejmowaniu decyzji opartych na danych, wykorzystując metody ilościowe, w tym uczenie maszynowe. Twoja rola będzie polegać na syntezowaniu dużych ilości informacji i programowym wyodrębnianiu użytecznych informacji z danych.
Stanowisko Data Scientist wspiera wszystkie segmenty TE Connectivity. Kluczowe obowiązki obejmują:
- Współpracę z różnymi jednostkami biznesowymi w celu zrozumienia wyzwań związanych z analizą produkcji, prognozowaniem przychodów, predykcyjnym utrzymaniem ruchu, analizą wydatków i obsługą klienta, aby opracować i przygotować modele analityczne i wnioski.
- Demonstrowanie ekspertyzy w dziedzinie przetwarzania języka naturalnego (NLP), analizie tekstu i generatywnej AI przy użyciu zaawansowanych algorytmów AI/ML.
- Wykorzystywanie modeli wstępnie wytrenowanych z Hugging Face i dostosowywanie dużych modeli językowych (LLM).
- Stosowanie technik głębokiego uczenia do analizy tekstu, w tym transformerów, architektur sieci neuronowych, baz danych wektorowych i embeddings.
- Wykorzystywanie ram i narzędzi generatywnej AI, takich jak LangChain, LlamaIndex oraz metodologie agentów jak CREWAI i AutoGen.
- Stosowanie metod odkrywania danych i analizy statystycznej do budowy systemów prognozujących, mających na celu poprawę doświadczeń klientów, generowanie przychodów, redukcję kosztów i optymalizację transportu.
- Opracowywanie i wdrażanie technik prognozowania, modeli regresji i rozwiązań analizy tekstu.
- Wykorzystywanie narzędzi z zakresu data science, takich jak AWS, Azure ML, TensorFlow, Keras, NumPy, Sci-Kit Learn, Flask, Pandas i PyCaret.
- Tworzenie wizualizacji za pomocą narzędzi takich jak ggplot, matplotlib, Tableau i PowerBI.
- Używanie języków zapytań takich jak SQL i praca z jeziorami danych, fabrykami danych i Kubernetes.
- Opracowywanie i wdrażanie modeli na Azure i AWS, wykorzystując pipelines CI/CD.
- Efektywne przedstawianie wniosków opartych na danych zarządowi.
Wymagane kompetencje i doświadczenie:
- 4-6 lat doświadczenia w tworzeniu i wdrażaniu modeli.
- Biegła znajomość Python, Azure ML i AWS Sagemaker.
- Ekspertyza w budowaniu modeli statystycznych i technikach uczenia maszynowego.
- Dobra znajomość ekstrakcji danych, czyszczenia danych, przygotowania danych, tworzenia modeli i wdrażania modeli.
- Doświadczenie w odkrywaniu i analizowaniu danych z baz danych na miejscu/chmura w celu optymalizacji i usprawnienia procesów.
- Dobre zrozumienie tworzenia modeli, CI/CD, Docker, itd.
- Biegłość w narzędziach statystycznych, takich jak Python, Azure Machine Learning i narzędzia Auto ML.
- Doświadczenie w realizacji projektów analitycznych od początku do końca na Azure/AWS.
- Umiejętność pracy przy minimalnym nadzorze i utrzymywanie odpowiedzialności.
- Wysoka jakość pracy