
„Google Deepmind“ pasidalino savo planu, kaip padaryti dirbtinį bendrąjį intelektą (AGI) saugesnį.
Ataskaitoje, pavadintoje „požiūris į techninį AGI saugumą ir saugumą“, paaiškina, kaip sustabdyti kenksmingą AI naudojimą, tuo pačiu padidinant jo pranašumus.
Nors jos idėjos yra labai techninės, jos idėjos netrukus gali paveikti AI įrankius, kurie galios paieška, turinio kūrimas ir kitos rinkodaros technologijos.
„Google“ AGI laiko juosta
„DeepMind“ mano, kad AGI gali būti pasirengusi iki 2030 m. Jie tikisi, kad AI veiks tokiu lygiu, kuris pranoksta žmonių rezultatus.
Tyrimas paaiškina, kad patobulinimai įvyks palaipsniui, o ne dramatiškuose šuoliuose. Rinkodaros specialistams nauji PG įrankiai stabiliai taps galingesni, suteiks įmonėms laiko pakoreguoti savo strategijas.
Ataskaitoje rašoma:
„Mes esame labai tikri dėl tvarkaraščių, kol nebus sukurtos galingos AI sistemos, tačiau, be abejo, manome, kad jos bus tikėtini, kad jos bus sukurtos iki 2030 m.“
Dvi pagrindinės fokusavimo sritys: netinkamo naudojimo ir netinkamo poslinkio prevencija
Ataskaitoje pagrindinis dėmesys skiriamas dviem pagrindiniams tikslams:
- Sustabdymas piktnaudžiavimu: „Google“ nori užkirsti kelią blogiems veikėjams naudoti galingą AI. Sistemos bus sukurtos aptikti ir sustabdyti kenksmingą veiklą.
- Sustabdymas netinkamas: „Google“ taip pat siekia užtikrinti, kad AI sistemos laikytųsi žmonių norų, užuot veikiančios savarankiškai.
Šios priemonės reiškia, kad ateityje AI įrankiai rinkodaroje greičiausiai apims įmontuotus saugos patikrinimus, vis dar dirbant kaip numatyta.
Kaip tai gali paveikti rinkodaros technologiją
Modelio lygio valdikliai
„DeepMind“ planuoja apriboti tam tikras PG funkcijas, kad būtų išvengta netinkamo naudojimo.
Technikos, kaip Galimybių slopinimas Įsitikinkite, kad AI sistema noriai sulaiko pavojingas funkcijas.
Ataskaitoje taip pat aptariama Nekenksmingumas po treniruotėso tai reiškia, kad sistema mokoma ignoruoti prašymus, kuriuos ji mato kaip kenksmingą.
Šie veiksmai reiškia, kad AI varomi turinio įrankiai ir automatizavimo sistemos turės stiprius etinius filtrus. Pvz., Turinio generatorius gali atsisakyti gaminti klaidinančią ar pavojingą medžiagą, net jei jį stumia išoriniai raginimai.
Sistemos lygio apsauga
Prieiga prie pažangiausių AI funkcijų gali būti griežtai valdoma. „Google“ galėtų apriboti patikimus vartotojus tam tikras funkcijas ir naudoti stebėjimą, kad užblokuotų nesaugius veiksmus.
Ataskaitoje teigiama:
„Modeliai, turintys pavojingų galimybių, gali būti tik patikrintos vartotojų grupės ir naudoti atvejus, sumažindami pavojingų galimybių paviršiaus plotą, kurį aktorius gali bandyti netinkamai pasiekti.“
Tai reiškia, kad įmonės įrankiai gali pasiūlyti platesnes patikimam partnerių funkcijoms, o vartotojams skirtos priemonės-su papildomais saugos sluoksniais.
Galimas poveikis konkrečioms rinkodaros sritims
Paieška ir SEO
Patobulintos „Google“ saugos priemonės galėtų pakeisti tai, kaip veikia paieškos sistemos. Nauji paieškos algoritmai gali geriau suprasti vartotojo ketinimus ir pasitikėti kokybės turiniu, kuris atitinka pagrindines žmogaus vertybes.
Turinio kūrimo įrankiai
Išplėstiniai AI turinio generatoriai pasiūlys protingesnę išvestį su įmontuotomis saugos taisyklėmis. Rinkodaros specialistams gali tekti nustatyti savo instrukcijas, kad PG galėtų sukurti tikslų ir saugų turinį.
Reklama ir suasmeninimas
Kai AI tampa pajėgesnė, naujos kartos „AD Tech“ gali pasiūlyti geresnį taikymą ir personalizavimą. Tačiau griežti saugos patikrinimai gali apriboti, kiek sistema gali paspartinti įtikinimo metodus.
Žvilgsnis į priekį
„Google Deepmind“ planas rodo įsipareigojimą tobulinti AI, tuo pačiu užtikrinant jį saugiai.
Skaitmeniniams rinkodaros specialistams tai reiškia, kad ateitis atneš galingų AI įrankių su įmontuotomis saugos priemonėmis.
Suprasdami šiuos saugos planus, galite geriau planuoti ateitį, kurioje AI dirba greitai, saugiai ir suderindami su verslo vertybėmis.
Teminis vaizdas: Shutterstock/Iljanaresvara Studio