
Po daugybės nerimą keliančių psichikos sveikatos incidentų, susijusių su AI pokalbių robotais, grupė valstybės generalinių prokurorų išsiuntė laišką geriausioms dirbtinio intelekto pramonės įmonėms su įspėjimu ištaisyti „apgaulingus rezultatus“ arba rizikuoti pažeisti valstybės įstatymus.
Laiške, kurį pasirašė dešimtys AG iš JAV valstijų ir teritorijų su Nacionaline generalinių prokurorų asociacija, prašoma įmonių, įskaitant „Microsoft“, „OpenAI“, „Google“ ir 10 kitų pagrindinių dirbtinio intelekto įmonių, įdiegti įvairias naujas vidines apsaugos priemones, skirtas apsaugoti savo vartotojus. Į laišką taip pat buvo įtraukti „Anthropic“, „Apple“, „Chai AI“, „Character Technologies“, „Luka“, „Meta“, „Nomi AI“, „Perplexity AI“, „Replika“ ir „xAI“.
Laiškas paskelbtas tuo metu, kai tarp valstijos ir federalinės vyriausybės užvirė kova dėl dirbtinio intelekto taisyklių.
Šios apsaugos priemonės apima skaidrų trečiųjų šalių atliekamą didelių kalbų modelių auditą, kuriame ieškoma apgaulingų ar siaubingų minčių požymių, taip pat naujas pranešimų apie įvykius procedūras, skirtas informuoti vartotojus, kai pokalbių robotai sukuria psichologiškai žalingus rezultatus. Toms trečiosioms šalims, tarp kurių gali būti akademinės ir pilietinės visuomenės grupės, turėtų būti leista „įvertinti sistemas prieš išleidimą be atsakomųjų veiksmų ir paskelbti savo išvadas be išankstinio bendrovės patvirtinimo“, – teigiama laiške.
„GenAI gali teigiamai pakeisti tai, kaip veikia pasaulis. Tačiau ji taip pat padarė ir gali padaryti rimtos žalos, ypač pažeidžiamoms gyventojų grupėms“, – teigiama laiške, nurodant daugybę per pastaruosius metus viešai paskelbtų incidentų, įskaitant savižudybes ir žmogžudystes, kurių metu smurtas buvo susijęs su pernelyg dideliu AI naudojimu“, – teigiama laiške. kurie skatino vartotojų kliedesius arba patikino vartotojus, kad jie neklysta.
AG taip pat siūlo, kad įmonės psichikos sveikatos incidentus traktuotų taip pat, kaip technologijų įmonės sprendžia kibernetinio saugumo incidentus – taikydamos aiškią ir skaidrią pranešimų apie incidentus politiką ir procedūras.
Laiške teigiama, kad įmonės turėtų parengti ir paskelbti „aptikimo ir reagavimo terminus, susijusius su melagingais ir kliedesiais“. Panašiai kaip šiuo metu tvarkomi duomenų pažeidimai, įmonės taip pat turėtų „greitai, aiškiai ir tiesiogiai informuoti vartotojus, jei jie patyrė potencialiai žalingą niekšišką ar kliedesį“, sakoma laiške.
Techcrunch renginys
San Franciskas
|
2026 m. spalio 13-15 d
Kitas prašymas yra, kad bendrovės sukurtų „pagrįstus ir tinkamus saugos testus“ „GenAI“ modeliams, siekdamos „užtikrinti, kad modeliai nesukeltų potencialiai žalingų melagingų ir klaidingų rezultatų“. Šie bandymai turėtų būti atlikti prieš modelių pasiūlą visuomenei, priduria ji.
Prieš paskelbiant „TechCrunch“ nepavyko susisiekti su „Google“, „Microsoft“ ar „OpenAI“, kad galėtų pakomentuoti. Straipsnis bus atnaujintas, jei įmonės atsakys.
Technologijos įmonės, kuriančios AI, sulaukė daug šiltesnio priėmimo federaliniu lygiu.
Trumpo administracija leido suprasti, kad yra besąlygiškai pasisakanti už AI, o per pastaruosius metus buvo daug kartų bandoma priimti nacionalinį moratoriumą dėl valstybės lygio AI taisyklių. Iki šiol tie bandymai žlugo – iš dalies dėl valstybės pareigūnų spaudimo.
Trumpas pirmadienį paskelbė, kad kitą savaitę ketina priimti vykdomąjį įsakymą, kuris apribos valstybių galimybes reguliuoti dirbtinį intelektą. „Truth Social“ paskelbtame pranešime prezidentas teigė, kad tikisi, kad jo EO neleis dirbtiniam intelektui būti „SUNAIKYTA KŪDYBĖJE“.



