Home » Articole » Articole » Afaceri » Marketing » Marketing pe Internet » Optimizarea web pentru motoarele de căutare (SEO)

Optimizarea web pentru motoarele de căutare (SEO)

Conținut optimizat

Când vine vorba de dezvoltarea Web, conținutul care este afișat pe pagina Web trebuie să fie păstrat separat de codul care spune browserului cum să afișeze pagina Web. Aceasta înseamnă că robotul motorului de căutare poate discerne cu ușurință între conținutul care trebuie citit (și, prin urmare, scanat de robot) și instrucțiunile pentru browser. O foaie de stil în cascadă (CSS) se poate ocupa de asta și este tratată în continuare în acest capitol.

Următoarele stiluri de text nu pot fi indexate de motoarele de căutare:

  • Text încorporat într-o aplicație Java sau într-un fișier Macromedia Flash
  • Text într-un fișier imagine (de aceea aveți nevoie de etichete alt descriptive și atribute title)
  • Text accesibil numai după trimiterea unui formular, autentificare și așa mai departe

Dacă motorul de căutare nu poate vedea textul de pe pagină, înseamnă că nu poate indexa pagina respectivă.

Dacă pentru conținutul unui fișier Macromedia Flash este utilizat un fișier XML (limbaj de marcare extensibil), atunci conținutul poate fi citit cu ușurință de către robotul motoarelor de căutare.

Arhitectura informației

Informațiile bine organizate sunt la fel de vitale pentru motoarele de căutare, precum și pentru utilizatori. O structură eficientă a link-urilor va oferi beneficii pentru clasamentele de căutare și vă ajută să vă asigurați că un motor de căutare indexează fiecare pagină a site-ului dvs.

Folosiți o hartă a site-ului, legată de și de la orice altă pagină a site-ului. Roboții motoarelor de căutare urmăresc legăturile de pe o pagină și, astfel, vor putea indexa întregul site. O hartă a site-ului bine planificată va asigura, de asemenea, că fiecare pagină de pe site se află la câteva clicuri de pagina de pornire.

Există două hărți ale site-ului care pot fi utilizate: o hartă a site-ului HTML pe care un vizitator al site-ului Web o poate vedea, utiliza și înțelege, și o hartă a site-ului XML (limbaj de marcare extensibil) care conține informații suplimentare pentru robotul motorului de căutare. O hartă XML a site-ului poate fi trimisă motoarelor de căutare pentru a promova indexarea completă și regulată. Din nou, o hartă a site-ului generată dinamic se va actualiza automat când este adăugat conținut.

Utilizarea unei structuri de categorii care curge de la larg la restrâns indică, de asemenea, motoarelor de căutare că site-ul dvs. este foarte relevant și acoperă un subiect în profunzime.

Probleme canonice: Nu poate fi decât unul

Ați observat că uneori mai multe adrese URL vă pot oferi toate aceeași pagină Web? De exemplu, consultați următoarele:

  • http://www.numesiteweb.com
  • http://numesiteweb.com
  • http://www.numesiteweb.com/index.html

Toate cele de mai sus pot fi folosite pentru aceeași pagină de pornire a unui site Web. Cu toate acestea, motoarele de căutare le văd ca trei pagini separate cu conținut duplicat. Motoarele de căutare caută documente și conținut unic, iar atunci când se întâlnesc duplicate, un motor de căutare va selecta unul ca fiind canonic și va afișa pagina respectivă în SERP (paginile cu rezultate ale motorului de căutare). Cu toate acestea, va oferi, de asemenea, un rang mai scăzut pentru pagina respectivă și pentru toate copiile acesteia. Orice valoare este diluată dacă există mai multe versiuni.

Webmasterii leneși uită uneori să pună în aplicare orice fel de redirecționare, ceea ce înseamnă că http://numesiteweb.com nu există, în timp ce http://www.numesiteweb există. Acesta este denumit „Sindromul Lame-Ass” (LAS) de către Quirk, un nume potrivit.

Având mai multe pagini cu același conținut, indiferent de cum a apărut, dăunează clasamentului site-ului web în motoarele de căutare. Există o soluție: redirecționările 301 pot fi folosite pentru a direcționa toate versiunile către o singură versiune canonică.

Robots.txt

Un fișier robots.txt restricționează un robot al motorului de căutare să acceseze și să indexeze anumite pagini ale unui site Web, dând instrucțiuni către robotul motorului de căutare. Acesta se numește Protocolul de excludere a roboților. Deci, dacă există pagini sau directoare pe un site Web care nu ar trebui să apară în SERP, fișierul robots.txt ar trebui să fie folosit pentru a indica acest lucru motoarelor de căutare.

Dacă un robot de motor de căutare dorește să acceseze adresa URL a unui site Web — de exemplu, http://www.numesiteweb.com/welcome.html — va verifica mai întâi http://www.numesiteweb.com/robots.txt.

Vizitarea a celei de doua adresă URL va afișa un fișier text cu următoarele:

User-agent: *
Disallow: /

Aici, „User-agent: *” înseamnă că instrucțiunea este pentru toți roboții. Dacă instrucțiunea se adresează anumitor roboți, ar trebui identificată aici. „Disallow: /” este o instrucțiune prin care nicio pagină a site-ului web nu trebuie indexată. Dacă există doar anumite pagini sau directoare care nu ar trebui să fie indexate, acestea ar trebui incluse aici.

De exemplu, dacă există atât o versiune HTML, cât și una PDF (format de document portabil) ale aceluiași conținut, webmasterul înțelept va instrui roboții motoarelor de căutare să indexeze doar unul dintre cei doi pentru a evita să fie penalizat pentru conținut duplicat.

Fișierul robots.txt este accesibil public, așa că, deși nu arată conținut restricționat, poate oferi o idee despre conținutul pe care proprietarul unui site Web dorește să-l păstreze privat. Trebuie creat un fișier robots.txt pentru fiecare subdomeniu.

Iată un fișier robots.txt cu informații suplimentare.

Figura 13.5

Instrucțiunile pentru roboții motoarelor de căutare pot fi date și în metaetichetele. Aceasta înseamnă că instrucțiunile pot fi date în continuare dacă aveți acces doar la metaetichete nu și la fișierul robots.txt.

Asigurați-vă că nu este stricat

Asigurați-vă că atât vizitatorii site-ului dvs. Web, cât și motoarele de căutare, pot vedea totul urmând aceste instrucțiuni:

  • Verificați dacă există link-uri întrerupte — orice lucru pe care faceți clic și care dă o eroare ar trebui considerat ca fiind o întrerupere și trebuie remediat.
  • Validați-vă HTML și CSS în conformitate cu regulile World Wide Web Consortium (W3C).
  • Asigurați-vă că toate formularele și aplicațiile funcționează așa cum ar trebui.
  • Păstrați dimensiunea fișieruelor și paginilor web cât mai mică posibil, în funcție de performanțele serverului pe care este găzduit site-ul. Asigurați astfel o viteză de descărcare mai rapidă pentru utilizatori și înseamnă că conținutul poate fi stocat complet în cache de motoarele de căutare.

Rezumat

  • Unul dintre fundamentele unui site de succes este vizibilitatea pentru motorul de căutare.
  • Este important să vă asigurați că totul de pe site este etichetat corect.
  • Este important să scrieți un conținut optimizat pentru motoarele de căutare.
  • Arhitectura informațiilor este importantă pe un site, deoarece conținutul trebuie prezentat într-un mod care să aibă sens pentru utilizator.
  • Asigurați-vă că nu există mai multe adrese URL pentru un set de conținut. Acest lucru va micșora rangul.
  • Robots.txt poate fi utilizat dacă o anumită pagină Web nu ar trebui să apară în SERP.
  • Asigurați-vă că site-ul dvs. este pe deplin funcțional și că respectă cele mai bune practici.

Sursa: Online Marketing Essentials (v. 1.0), licența Creative Commons by-nc-sa 3.0, Traducere și adaptare Nicolae Sfetcu. Articol publicat sub licență Creative Commons by-nc-sa 3.0

Căutarea, extragerea, organizarea și evaluarea informațiilor
Căutarea, extragerea, organizarea și evaluarea informațiilor

Informația, ca și concept, include o mare diversitate de sensuri în contexte diferite, de la cele zilnice până la cele tehnice. Conceptul de informație este strâns legat de noțiunile de restricție, comunicare, control, date, forme, educație, cunoaștere, înțelegere, stimul mental, … Citeşte mai mult

Nu a fost votat 3.708.92 Selectează opțiunile
Introducere în inteligența artificială
Introducere în inteligența artificială

Inteligența artificială s-a dezvoltat exploziv în ultimii ani, facilitând luarea deciziilor inteligente și automate în cadrul scenariilor de implementare. Inteligența artificială se referă la un ecosistem de modele și tehnologii pentru percepție, raționament, interacțiune și învățare.  Asistăm la o convergență … Citeşte mai mult

Nu a fost votat 2.774.86 Selectează opțiunile
Ghidul Google SEO
Ghidul Google SEO

Ghidul de iniţiere Google privind optimizarea pentru motoarele de căutare, Versiunea 1.1, 13 noiembrie 2008 Acest document a fost lansat iniţial ca un efort pentru a ajuta echipele Google, însă este la fel de util şi pentru webmasterii începători în … Citeşte mai mult

Nu a fost votat 0.00 Selectează opțiunile

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *