European AI Safety Policy Lead - Technical

Job expired!

O zespole

Misją OpenAI jest zapewnienie, że sztuczna inteligencja ogólnego przeznaczenia przynosi korzyści całej ludzkości. Wierzymy, że osiągnięcie naszego celu wymaga efektywnej współpracy z interesariuszami polityki publicznej i szerszą społecznością dotkniętą przez AI. Nasz zespół Global Affairs buduje autentyczne, współpracujące relacje z przedstawicielami władz publicznych oraz szerszą społecznością zajmującą się polityką AI. Zapewnia to, że wgląd polityków informuje nasze działania i, we współpracy z kolegami i zewnętrznymi interesariuszami, pomaga kształtować zasady polityki, standardy branżowe oraz bezpieczny i korzystny rozwój narzędzi AI.

O roli

Jako AI Safety Policy Lead będziesz angażować się w pełne spektrum kwestii politycznych związanych z bezpieczeństwem AI oraz wspierać zespół Global Affairs wiedzą techniczną i znajomością LLM-ów i technologii AI. OpenAI publikuje wiodące w branży badania i narzędzia, a Ty napotkasz nowe wyzwania w miarę jak wpływ najnowocześniejszych technologii generatywnej AI nadal się rozwija. Twoje codzienne obowiązki będą obejmować od kształtowania inicjatyw strategicznych i dokumentów politycznych po przygotowywanie naszych liderów do spotkań z przedstawicielami rządu lub reprezentowanie OpenAI na różnych forum.

Szukamy osoby samodzielnej i kreatywnej, która łączy techniczne i badawcze zaplecze w dziedzinie LLM-ów i technologii AI z udokumentowanym doświadczeniem w angażowaniu się z politykami, instytutami badawczymi, akademikami i społeczeństwem obywatelskim. Ta strategiczna, ale i praktyczna rola będzie częścią zespołu Policy Planning i będzie ściśle współpracować z kluczowymi partnerami wewnętrznymi i zewnętrznymi. Stanowisko to ma siedzibę w Londynie i będzie wymagać częstych podróży, aby spotkać się z kluczowymi interesariuszami. Oferujemy pomoc w relokacji nowym pracownikom.

Kwalifikacje

  • 3-5 lat doświadczenia w (technicznych lub technicznie ugruntowanych) badaniach i pracy politycznej nad bezpieczeństwem AI.
  • Udokumentowana zdolność do angażowania się z politykami, regulatorami, społeczeństwem obywatelskim i akademikami w zniuansowanych dyskusjach na temat bezpieczeństwa AI.
  • Techniczne wykształcenie (najlepiej tytuł magistra w ML/AI lub równoważne doświadczenie) z dogłębną znajomością LLM-ów/AI i ich bezpiecznego wdrażania.
  • Doświadczenie w ocenie ryzyka AI, bezpieczeństwie modeli, odporności, zarządaniu, dezinformacji/misinformacji oraz doradzaniu rządom w sprawach politycznych.
  • Ustanowiona sieć kontaktów i wiarygodność w społeczności zajmującej się bezpieczeństwem AI w Europie.
  • Umiejętność oceny i zrozumienia wpływu propozycji legislacyjnych i regulacyjnych na produkt i harmonogram badań OpenAI.

Idealne cechy kandydata

  • Silne umiejętności analityczne i zamiłowanie do pragmatycznej polityki czynienia AI bezpieczną i korzystną.
  • Zrozumienie technologii AI na poziomie inżynierskim z umiejętnością samodzielnego rozwiązywania zagadnień technicznych (np. czytanie artykułów arXiv lub repozytoriów kodu).
  • Uzyskana wiarygodność wśród państw członkowskich UE oraz międzynarodowych polityków, regulatorów i innych interesariuszy.