
Naujausi AI įrankiai, sukurti kaip protingesni, padaryti daugiau faktinių klaidų nei senesnės versijos.
Kaip pabrėžia „The New York Times“, testai rodo net 79% klaidų tokiose įmonėse kaip „Openai“.
Tai gali sukelti problemų rinkodaros specialistams, kurie remiasi šiomis priemonėmis, skirtomis turiniui ir klientų aptarnavimui.
Kylančios klaidų procentai išplėstinės AI sistemose
Naujausi testai atskleidžia tendenciją: naujesnės AI sistemos yra ne tokios tikslios nei jų pirmtakai.
Naujausia „Openai“ sistema „O3“ suklydo. 33% laiko, kai atsakiau į klausimus apie žmones. Tai yra dvigubai didesnis nei ankstesnės jų sistemos klaidų lygis.
Jo „O4-Mini“ modelis buvo dar blogesnis, o to paties testo klaidų lygis buvo 48%.
Kalbant apie bendruosius klausimus, rezultatai (PDF nuoroda) buvo šie:
- „Openai“ O3 padarė klaidų 51% laiko
- O4-mini modelis buvo neteisingas 79% laiko
Panašios problemos iškyla sistemose iš „Google“ ir „Deepseek“.
AMR Awadallah, „Vectara“ generalinis direktorius ir buvęs „Google“ vadovas, „New York Times“ pasakoja:
„Nepaisant mūsų geriausių pastangų, jie visada haliucinuos. Tai niekada neišnyks”.
Realaus pasaulio padariniai verslui
Tai nėra tik abstrakčios problemos. Tikrosios įmonės susiduria su atsilikimu, kai AI pateikia neteisingą informaciją.
Praėjusį mėnesį „Cursor“ (įrankis programuotojams) susidūrė su piktais klientais, kai jos AI palaikymas „Bot“ melagingai reikalavo vartotojų, kurie negalėjo naudoti programinės įrangos keliuose kompiuteriuose.
Tai nebuvo tiesa. Dėl klaidos paskatino atšaukti sąskaitas ir viešus skundus.
„Cursor“ generalinis direktorius Michaelas Truellas turėjo įsitraukti:
„Mes neturime tokios politikos. Žinoma, jūs galite laisvai naudotis žymekliu keliose mašinose.”
Kodėl patikimumas mažėja
Kodėl naujesnės AI sistemos yra ne tokios tikslios? Remiantis „New York Times“ ataskaita, atsakymas slypi tuo, kaip jie pastatyti.
Tokios kompanijos kaip „Openai“ mokymui naudojo didžiąją dalį turimo interneto teksto. Dabar jie naudoja „stiprinimo mokymąsi“, kuris apima AI mokymą bandymų ir klaidų metu. Šis požiūris padeda matematikai ir kodavimui, tačiau atrodo, kad kenkia faktinis tikslumas.
Tyrėja Laura Perez-Beltrachini paaiškino:
„Tai, kaip šios sistemos yra mokomos, pradės sutelkti dėmesį į vieną užduotį ir pradės pamiršti kitas“.
Kita problema yra ta, kad naujesni AI modeliai „mąsto“ žingsnis po žingsnio prieš atsakydami. Kiekvienas žingsnis sukuria dar vieną galimybę padaryti klaidų.
Šios išvados yra susijusios su rinkodaros specialistams, naudojantiems AI turiniui, klientų aptarnavimui ir duomenų analizei.
PG turinys su faktinėmis klaidomis gali pakenkti jūsų paieškos reitingams ir prekės ženklui.
Pratik Verma, Okahu generalinis direktorius, pasakoja „New York Times“:
„Jūs praleidžiate daug laiko bandydami išsiaiškinti, kurie atsakymai yra faktiniai, o kurie nėra. Neatmesdami šių klaidų, iš esmės iš esmės pašalinama AI sistemų vertė.”
Apsaugokite savo rinkodaros operacijas
Štai kaip apsaugoti savo rinkodarą:
- Tegul žmonės peržiūri visą klientą nukreiptą AI turinį
- Sukurkite AI sukurtos medžiagos faktų tikrinimo procesus
- Naudokite AI struktūrai ir idėjoms, o ne faktams
- Apsvarstykite AI įrankius, cituojančius šaltinius (vadinamus retrivalo auginamomis karta)
- Sukurkite aiškius veiksmus, kurių reikia atlikti, kai pastebėsite abejotiną AI informaciją
Kelias į priekį
Tyrėjai dirba su šiomis tikslumo problemomis. „Openai“ sako, kad naujesniuose modeliuose tai „aktyviai siekia sumažinti didesnį haliucinacijos procentą“.
Rinkodaros komandoms reikia savo apsaugos priemonių, vis dar naudojantis AI pranašumais. Bendrovės, turinčios tvirtus patikrinimo procesus, geriau subalansuos AI efektyvumą ir tikslumo poreikį.
Suradus šią pusiausvyrą tarp greičio ir teisingumo, išliks vienas didžiausių skaitmeninės rinkodaros iššūkių, nes AI ir toliau vystysis.
Teminis vaizdas: Kongas/Shutterstock