O zespole
Zaawansowane modele sztucznej inteligencji mogą przynieść korzyści całej ludzkości, ale wiążą się też z nasilającymi się poważnymi ryzykami. Dlatego powołaliśmy specjalny zespół, który ma za zadanie przygotować nas jak najskuteczniej do rozwoju coraz bardziej zaawansowanych modeli AI. Ten zespół, o nazwie "Preparedness", jest bezpośrednio odpowiedzialny przed naszym głównym technologiem (CTO) i ma za zadanie zidentyfikowanie, monitorowanie i przygotowanie na katastrofalne ryzyko związane z modelami AI.
Konkretne cele zespołu "Preparedness" to:
1. Uważne obserwowanie i prognozowanie rozwoju zdolności systemów AI, szczególnie pod kątem ryzyka nadużycia, które mogłoby wpływać na ich wpływ.
2. Gwarantowanie, że mamy jednoznaczne procedury, infrastrukturę i partnerstwa, które pomogą zredukować te ryzyka i, ogólnie rzecz biorąc, bezpiecznie radzić sobie z rozwojem potężnych systemów AI.
Nasz zespół tworzy silne więzi między oceną zdolności, ewaluacjami i wewnętrznymi testami penetracyjnymi modeli, a także koordynuje działania związane z przygotowaniami do AGI. Podstawowym celem zespołu jest zapewnienie, że mamy wymaganą infrastrukturę do utrzymania bezpieczeństwa wysoce efektywnych systemów AI - od modeli, które będziemy rozwijać w najbliższej przyszłości, aż po te posiadające zdolności AGI.
O tobie
Mamy zamiar zatrudnić wybitnych inżynierów badawczych, którzy mogą rozszerzyć zdolności naszych modeli. Szukamy osób, które pomogą nam ukształtować praktyczne rozumienie pełnego zakresu problemów bezpieczeństwa AI i które wezmą odpowiedzialność za poszczególne aspekty tego przedsięwzięcia od początku do końca.
W tej roli będziesz:
- Pracować nad identyfikacją nowych ryzyk związanych z bezpieczeństwem AI i nowych metodologii badania wpływu tych ryzyk
- Opracowywać (i następnie ciągle dostosowywać) oceny modeli AI, które oceniają skalę zidentyfikowanych ryzyk
- Projektować i tworzyć skalowalne systemy i procesy, które mogą obsługiwać tego typu oceny
- Przyczyniać się do udoskonalenia zarządzania ryzykiem i ogólnego rozwoju "najlepszych praktyk" dotyczących ocen bezpieczeństwa AI
Oczekujemy, że będziesz:
- Pasionatem i dobrze zorientowanym w zagadnieniach krótko- i długoterminowego bezpieczeństwa AI
- Osobą potrafiącą myśleć innowacyjnie i mającą solidne podejście do "czerwonej drużyny"
- Doświadczonym w badaniach inżynierskich ML, obserwowalności i monitoringu ML, tworzeniu dużych aplikacji sterowanych modelem języka, i/lub innym technicznym obszarze związanym z ryzykiem AI
- Zdolnym do skutecznego działania w zmiennym i niezwykle dynamicznym środowisku badawczym, a także do definiowania i realizacji projektów od początku do końca
Byłoby korzystne, gdybyś miał również:
- Bezpośrednie doświadczenie w testach penetracyjnych systemów - zarówno komputerowych, jak i innych
- Dobrze zrozumieć (subtelności) społeczne aspekty wdrażania AI
- Zdolność do współpracy między różnymi funkcjami
- Doskonałe umiejętności komunikacji
Jesteśmy pracodawcą równych szans i nie dyskryminujemy na podstawie rasy, religii, pochodzenia narodowego, płci, orientacji seksualnej, wieku, statusu weterana, niepełnosprawności lub jakiegokolwiek innego stanu chronionego przez prawo. Na mocy San Francisco Fair Chance Ordinance rozważamy kandydatów, którzy mają na swoim koncie aresztowania i skazania.
Jesteśmy zobowiązani do zapewnienia odpowiednich udogodnień dla kandydatów z niepełnosprawnościami, a wnioski można składać za pośrednictwem tego linku.
Polityka Prywatności Kandydatów OpenAI w USA
Wynagrodzenie, korzyści i dodatkowe atuty
Całościowe wynagrodzenie obejmuje również hojną ilość udziałów equity i różne benefity.
- Ubezpieczenie medyczne, stomatologiczne i okulistyczne dla Ciebie i Twojej rodziny
- Wsparcie dla zdrowia psychicznego i dobrobytu
- Plan 401(k) z dopłatą w wysokości 4%
- Niograniczony urlop i ponad 18 dni świątecznych w roku
- Płatny urlop rodzicielski (20 tygodni) i wsparcie dla planowania rodziny
- Roczny fundusz na rozwój i edukację ($1500 na rok)