Research Engineer, Security

Job expired!

O Zespole

Bezpieczeństwo jest integralne dla misji OpenAI, aby zapewnić, że ogólna sztuczna inteligencja przynosi korzyści całej ludzkości. Nasz Zespół Bezpieczeństwa nie tylko chroni technologię, ludzi i produkty OpenAI; aktywnie eksploruje granice AI i cyberbezpieczeństwa. Nasza misja badawcza koncentruje się na tworzeniu bezpieczniejszego i bardziej zabezpieczonego ekosystemu cyfrowego poprzez postępy w badaniach AI, ocenę potencjalnych zagrożeń i odpowiedzialne zastosowanie AI do poprawy obrony cybernetycznej.

O Roli

Jako Inżynier Badawczy w naszym Zespole Bezpieczeństwa, odegrasz kluczową rolę w rozwijaniu bezpieczeństwa AI i jego zastosowań w dziedzinie cyberbezpieczeństwa. Wykorzystując swoje solidne umiejętności badawcze i inżynierskie, będziesz współpracować z partnerami międzyfunkcyjnymi w celu opracowywania przełomowych teorii, technik i metodologii. Szukamy osoby zmotywowanej, proaktywnego gracza zespołowego, zdolnego do prowadzenia współpracy i odkryć naukowych w całej organizacji.

Ta rola jest zlokalizowana w San Francisco, Kalifornia, lub Londynie, Wielka Brytania. Operujemy w modelu hybrydowym, z trzech dniami w biurze każdego tygodnia, i oferujemy pomoc przy relokacji dla nowych pracowników.

  • Badaj, projektuj i wdrażaj techniki i metodologie, które zwiększają zdolność, zastosowanie i wpływ modeli AI w cyberbezpieczeństwie.
  • Skoncentruj się na obszarach takich jak identyfikowanie problemów w kodzie źródłowym, analiza binarna, generowanie poprawek, analiza logów, analiza zagrożeń oraz automatyzacja cyklu odpowiedzi na incydent.
  • Opracowuj techniki poprawy odporności modeli AI.
  • Twórz modele zagrożeń, systemy i metodologie mierzenia zdolności cyberbezpieczeństwa modeli.
  • Promuj praktyki bezpieczeństwa skierowane ku AI w OpenAI i szerszej społeczności.
  • Współpracuj z kolegami z OpenAI nad inicjatywami badawczymi z zakresu bezpieczeństwa.
  • Angażuj się w społeczności badawcze związane z bezpieczeństwem i AI za pomocą inicjatyw takich jak Program Grantów na Cyberbezpieczeństwo.
  • Eksperymentuj z nowymi narzędziami i technologiami, aby poprawić środki bezpieczeństwa w organizacji.

Możesz odnaleźć się w tej roli, jeśli:

  • Masz udokumentowane osiągnięcia w dostarczaniu znaczących wyników w dziedzinie bezpieczeństwa, prywatności i/lub badań nad AI.
  • Posiadasz głęboką wiedzę na temat współczesnych koncepcji AI, w tym modelowania języka i deep learningu.
  • Wykazujesz się silnymi umiejętnościami programistycznymi, w tym doświadczeniem w programowaniu systemów oraz językami takimi jak Python lub Golang.
  • Masz historię tworzenia wysokiej jakości, skalowalnych i bezpiecznych aplikacji.
  • Jesteś inicjatywnym samostarczą osobą, która prowadzi przez przykład i chętnie podejmuje wyzwania.
  • Potrafisz efektywnie i współpracująco pracować w zespole międzyfunkcyjnym.

O OpenAI

OpenAI jest firmą zajmującą się badaniem i wdrażaniem sztucznej inteligencji, której misją jest zapewnienie, że ogólnoużytkowa sztuczna inteligencja przynosi korzyści całej ludzkości. Przekracz