
„Google“ paieškos santykių komandos nariai neseniai pasidalino įžvalgomis apie žiniatinklio standartus, susijusius su įrašų podcast'u.
Martinas Splittas ir Gary Illyesas paaiškino, kaip kuriami šie standartai ir kodėl jie yra svarbūs SEO. Jų pokalbyje atskleidžiama išsami informacija apie „Google“ sprendimus, turinčius įtakos tam, kaip mes optimizuojame svetaines.
Kodėl kai kurie žiniatinklio protokolai tampa standartais, o kiti – ne
„Google“ yra oficialiai standartizuoti robotai.txt per interneto inžinerijos darbo grupę (IETF). Tačiau jie paliko „SitemAp“ protokolą kaip neoficialų standartą.
Šis skirtumas parodo, kaip „Google“ nustato, kuriems protokolams reikalingi oficialūs standartai.
Illyes paaiškino podcast'o metu:
„Naudodamiesi robots.txt, buvo nauda, nes mes žinojome, kad skirtingi analizatoriai yra linkę į robotus.txt failus kitaip … naudodamiesi svetainės schema, tai yra kaip„ eh “… tai paprastas XML failas, ir nėra tiek daug, kas su ja gali suklysti“.
Šis „Illyes“ teiginys atskleidžia „Google“ prioritetus. Protokolai, kurie supainioja platformas, sulaukia daugiau dėmesio nei tie, kurie gerai veikia be oficialių standartų.
SEO protokolo standartizacijos pranašumai
Robotų standartizavimas.txt sukūrė keletą aiškių SEO pranašumų:
- Nuoseklus įgyvendinimas: „Robots.txt“ failai dabar nuosekliau interpretuojami visuose paieškos sistemose ir tikrinimo priemonėse.
- Atviro kodo ištekliai: „Tai leido mums atvirą šaltinį mūsų robotus.
- Lengviau naudoti: Anot Illyes, standartizavimas reiškia, kad „svetainių savininkams yra mažiau įtampos, bandančios išsiaiškinti, kaip parašyti prakeiktus failus“.
Dėl šių privalumų techninis SEO veikia tiesmukiškesnį ir efektyvesnį, ypač komandoms, valdančioms dideles svetaines.
Internetinio standartų proceso viduje
Podcast'as taip pat atskleidė, kaip kuriami žiniatinklio standartai.
Standartų grupės, tokios kaip IETF, W3C ir Whatwg, veikia atliekant atvirus procesus, kuriems dažnai reikia metų. Šis lėtas tempas užtikrina saugumą, aiškią kalbą ir plačią suderinamumą.
Illyes paaiškino:
„Jūs turite parodyti, kad tai, ką dirbate, iš tikrųjų veikia. Vyksta daugybė iteracijos ir tai daro procesą labai lėtai, tačiau dėl rimtos priežasties.”
Abu „Google“ inžinieriai pabrėžė, kad kiekvienas gali dalyvauti šiuose standartų procesuose. Tai sukuria galimybes SEO profesionalams padėti formuoti protokolus, kuriuos jie naudoja kasdien.
Saugumo aspektai žiniatinklio standartuose
Standartai taip pat nagrinėja svarbius saugumo problemas. Kurdama robotus.txt standartą, „Google“ įtraukė 500 kilobytų limitą būtent tam, kad būtų išvengta potencialių atakų.
Illyes paaiškino:
„Kai skaitau juodraštį, pažiūrėčiau, kaip aš išnaudočiau dalykus, kuriuos apibūdina standartas“.
Tai parodo, kaip standartai nustato saugumo ribas, kurios apsaugo tiek svetaines, tiek su jomis sąveikaujančiomis priemonėmis.
Kodėl tai svarbu
SEO profesionalams šios įžvalgos rodo keletą praktinių strategijų, į kurias reikia atsižvelgti:
- Būkite tikslūs kurdami robotus.txt direktyvos, nes „Google“ daug investavo į šį protokolą.
- Norėdami patikrinti savo darbą, naudokite „Google“ atvirojo kodo robotus.txt Parser.
- Žinokite, kad svetainių schemos suteikia daugiau lankstumo, turint mažiau analizės.
- Apsvarstykite galimybę prisijungti prie interneto standartų grupių, jei norite padėti formuoti būsimus protokolus.
Kadangi paieškos sistemos ir toliau teikia pirmenybę techninei kokybei, supratimas apie pagrindinius interneto protokolų principus tampa vis vertingesnis siekiant SEO sėkmės.
Šis pokalbis rodo, kad net paprastos techninės specifikacijos apima sudėtingus aspektus, susijusius su saugumu, nuoseklumu ir naudojimo paprastumu – visi veiksniai, kurie daro tiesioginį poveikį SEO našumui.
Išgirskite visą diskusiją žemiau esančiame vaizdo įraše: