Kita „OpenAI“ vadovaujanti saugos tyrėja Lilian Weng penktadienį paskelbė, kad palieka startuolį. Weng nuo rugpjūčio ėjo tyrimų ir saugos viceprezidento pareigas, o prieš tai buvo OpenAI saugos sistemų komandos vadovas.
Įraše apie X Weng sakė, kad „po 7 metų OpenAI jaučiuosi pasirengęs iš naujo nustatyti ir ištirti kažką naujo“. Weng sakė, kad jos paskutinė diena bus lapkričio 15 d., tačiau nenurodė, kur ji vyks toliau.
„Priėmiau nepaprastai sunkų sprendimą palikti OpenAI“, – pranešime sakė Weng. „Žiūrėdamas į tai, ką pasiekėme, aš labai didžiuojuosi visais saugos sistemų komandos nariais ir labai tikiu, kad komanda ir toliau klestės.
Wengo pasitraukimas yra naujausias įvykis iš ilgos dirbtinio intelekto saugos tyrėjų, politikos tyrinėtojų ir kitų vadovų, kurie praėjusiais metais pasitraukė iš įmonės, ir kai kurie apkaltino OpenAI pirmenybę teikiant komerciniams produktams, o ne AI saugai. Weng prisijungia prie Iljos Sutskeverio ir Jano Leike – dabar jau panaikintos „OpenAI“ „Superalignment“ komandos, kuri bandė sukurti metodus, kaip valdyti itin intelektualias dirbtinio intelekto sistemas, vadovų, kurie šiais metais taip pat paliko startuolį ir dirba dirbtinio intelekto saugos klausimais kitur.
Anot jos „LinkedIn“, Weng pirmą kartą prisijungė prie OpenAI 2018 m., dirbdama startuolio robotikos komandoje, kuri galiausiai sukūrė roboto ranką, galinčią išspręsti Rubiko kubą – užduočiai, kuriai atlikti prireikė dvejų metų, pasak jos įrašo.
Kai OpenAI pradėjo daugiau dėmesio skirti GPT paradigmai, tai padarė ir Weng. 2021 m. mokslininkas perėjo padėti sukurti naujojo taikomojo dirbtinio intelekto tyrimų komandą. Pradėjus GPT-4, Weng buvo pavesta sukurti specialią komandą, kuri 2023 m. sukurtų saugos sistemas startuoliui. Šiandien OpenAI saugos sistemų padalinys turi daugiau nei 80 mokslininkų, tyrinėtojų ir politikos ekspertų, remiantis Wengo įrašu.
Tai daug dirbtinio intelekto saugos žmonių, tačiau daugelis išreiškė susirūpinimą dėl OpenAI dėmesio saugai, nes ji bando kurti vis galingesnes AI sistemas. Milesas Brundage'as, ilgametis politikos tyrinėtojas, spalį paliko startuolį ir paskelbė, kad OpenAI paleido AGI parengties komandą, kuriai jis patarė. Tą pačią dieną „New York Times“ aprašė buvusį „OpenAI“ tyrėją Suchirą Balaji, kuris teigė palikęs „OpenAI“, nes manė, kad startuolio technologija atneš visuomenei daugiau žalos nei naudos.
„OpenAI“ pasakoja „TechCrunch“, kad vadovai ir saugos tyrėjai stengiasi pakeisti Wengą.
„Labai vertiname Lilian indėlį į novatoriškus saugos tyrimus ir kuriant griežtas technines apsaugos priemones“, – elektroniniu paštu atsiųstame pranešime sakė OpenAI atstovas. „Esame įsitikinę, kad saugos sistemų komanda ir toliau atliks pagrindinį vaidmenį užtikrinant, kad mūsų sistemos būtų saugios ir patikimos, aptarnaudamos šimtus milijonų žmonių visame pasaulyje.
Kiti vadovai, kurie pastaraisiais mėnesiais paliko OpenAI, yra CTO Mira Murati, vyriausiasis tyrimų pareigūnas Bobas McGrew ir tyrimų viceprezidentas Barretas Zophas. Rugpjūčio mėn. garsus tyrėjas Andrejus Karpathy ir vienas iš įkūrėjų Johnas Schulmanas taip pat paskelbė, kad pasitrauks iš startuolio. Kai kurie iš šių žmonių, įskaitant Leike ir Schulman, išvyko prisijungti prie OpenAI konkurento Anthropic, o kiti pradėjo savo verslą.