Ekscytująca Oferta: AWS Data Engineer w PradeepIT Consulting Services Pvt Ltd
Opis stanowiska:
Poszukujemy doświadczonego Data Engineer AWS do dołączenia do naszego dynamicznego zespołu w PradeepIT Consulting Services Pvt Ltd. Na tym stanowisku będziesz miał kluczowe znaczenie w projektowaniu, budowaniu i utrzymaniu wytrzymałych rurociągów danych oraz rozwiązań do przechowywania danych, wykorzystując Amazon Web Services (AWS). Twój wkład będzie niezbędny w pozyskiwaniu danych dla kluczowych wglądów biznesowych i analiz. Stanowisko oferuje doskonałą okazję do pracy z zaawansowanymi technologiami w wymagającym środowisku.
Obowiązki:
Jako Inżynier Danych AWS, Twoje główne obowiązki będą obejmować:
- Realizację kompleksowych projektów inżynierii danych od początku do końca.
- Opracowywanie i utrzymanie skalowalnych rurociągów danych w ekosystemie AWS.
- Zapewnienie wysokiej jakości rozwiązań danych oraz przestrzeganie standardów zarządzania danymi i jakości danych.
- Wykorzystanie technologii Big Data takich jak Hadoop i Spark w celu zwiększenia naszych możliwości danych.
- Współpraca z członkami zespołu w celu innowacji i ulepszania strategii opartych na danych.
Wymagane umiejętności:
Aby odnieść sukces na tym stanowisku, będziesz potrzebować:
- Silnej wiedzy na temat usług AWS, w tym S3, Glue, EMR, Redshift i Lambda.
- Solidnej biegłości w SQL, projektowaniu baz danych i optymalizacji wydajności SQL.
- Doświadczenia w realizacji co najmniej dwóch projektów inżynierii danych od początku do końca.
- 4 do 7 lat doświadczenia w rolach Inżyniera Danych AWS.
- Doświadczenia z procesami ETL i technologiami big data, z co najmniej 3 latami poświęconymi na korzystanie z Databricks.
- Znajomości modelowania danych, bezpieczeństwa danych i standardów zgodności.
Preferowane kwalifikacje:
- Certyfikat AWS Certified Data Analytics lub AWS Certified Data Specialty.
- Znakomite zdolności rozwiązywania problemów i usterek.
- Skuteczna komunikacja i silne umiejętności pracy zespołowej z umiejętnością przewidywania problemów i formułowania środków zaradczych.
- Wiedza na temat metodologii i ram testowania jednostkowego.
FAQ:
- Jak obszerna jest Twoja wiedza na temat technologii Big Data takich jak Spark, Hadoop lub innych odpowiednich platform?
- Czy możesz szczegółowo opisać swoje doświadczenie w budowaniu rurociągów ETL, modelowania danych i interakcji z zewnętrznymi systemami danych?
- Jakie masz doświadczenie w korzystaniu z usług AWS takich jak S3, Glue, EMR, Redshift i Lambda?
- Czy masz doświadczenie w optymalizacji wydajności SQL lub możesz wykazać się znaczącą wiedzą na temat