Cloaking

Cloacking este o tehnică incorectă de optimizare pentru motoarele de căutare (Black Hat SEO), în care conţinutul prezentat robotului motorului de căutare este diferit de cel afişat în browserul vizitatorilor. Aceasta se realizează prin livrarea de conţinut pe baza adreselor IP sau a antetului agentului HTTP utilizator al utilizatorului care vizitează pagina. Când un utilizator este identificat ca robot al unui motor de căutare, un script de pe server livrează o versiune diferită a paginii web, cu conţinut inexistent în pagina vizibilă. Scopul cloackingului este să păcălească motoarele de căutare.

Începând cu 2006 sunt disponibile metode mai bune de accesibilitate, inclusiv ameliorarea progresivă, astfel încât cloackingul să nu mai fie considerat necesar de către adepţii acestei metode. Cloackingul este adesea folosit ca o tehnică de spamdexare, pentru a încerca să păcălească motoarele de căutare obţinând un loc mai bun; poate fi folosit şi pentru a păcăli utilizatorii motoarelor de căutare care, vizitând un sit pe baza descrierii din motorul de căutare, se dovedeşte că situl respectiv are în fapt un cu totul alt conţinut, chiar pornografic uneori. Din aceste motive, motoarele de căutare importante consideră cloackingul drept o violare a termenilor lor de folosire, şi în consecinţă delistează toate siturile raportate şi dovedite ca folosind cloacking.[1][2][3][4][5]

Cloaking este o formă de tehnică de pagină satelit (doorway page).

O tehnică similară este de asemenea folosită pe directorul web Open Directory Project. Ea diferă sub multe aspecte de cloacking pentru motoarele de căutare:

  • Scopul ei este de a păcăli editorii umani, mai degrabă decât roboţii computerizaţi ai motoarelor de căutare.
  • Decizia de a folosi sau nu cloackingul se bazează adesea pe referentul HTTP, agentul utilizator sau IP-ul vizitatorului; dar există şi tehnici mai avansate bazate pe analiza comportamentală a clientului după vizitarea câtorva pagini: cantitatea brută, sortarea, şi latenţa dintre solicitările HTTP subsecvente trimise către pagina unui sit web, plus verificarea unui fişier robots.txt, sunt unii din parametrii prin care roboţii motoarelor de căutare diferă mult de comportamentul unui utilizator uman. Referentul spune URL-ul paginii pe care un user a apăsat un link pentru a ajunge pe pagină. Unelemetode de cloacking vor arăta pagina falsă oricui vine de oe situl web al unui director web, ăntrucât editorii umani examinează de obicei siturile urmând linkurile care apar pe paginile directorului web. Alte metode arată pagina falsă oricui cu excepţia celor care vin de pe un motor de căutare important; astfel este mai greu de detectat cloackingul, fără a pierde prea mulţi vizitatori, întrucât cei mai mulţi dintre ei găsesc situl web prin folosirea unui motor de căutare.

Referinţe

  1. ^ Ask.com Editorial Guidelines
  2. ^ Google’s Guidelines on SEOs
  3. ^ Google’s Guidelines on Site Design
  4. ^ MSN Search Guidelines for successful indexing
  5. ^ Yahoo! Search Content Quality Guidelines

Traducere şi adaptare din Wikipedia sub licenţa GNU de Nicola Sfetcu)

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *