Poți avea cel mai bun site din lume, care vinde cele mai bune produse, dar dacă nu este posibilă accesarea cu crawlere a conținutului de către Google, de exemplu, atunci paginile tale nu vor apărea în rezultatele căutărilor. Așa că oricine derulează o afacere online, trebuie să învețe elementele de bază despre modul de funcționare a Google, deoarece vei înțelege mult mai ușor cum și de ce la un moment dat lucrurile pot merge prost.
Înainte de a începe să te gândești la strategii de marketing aprofundate pentru a-ți aduce site-ul în fața a cât mai multor persoane, construirea link-urilor pentru a vă crește autoritatea domeniului, îmbunătățirea descrierii produselor pentru a spori relevanța sau orice alte activități de marketing, consumatoare de timp, asigură-te că motoarele de căutare pot găsi și înțelege paginile site-ului tău.
Există o mulțime de tehnologii care se află în spatele abilității aproape ingenioase a Google de a ne furniza exact ceea ce căutăm, dar când vine vorba de rezultatele căutărilor organice (rezultatele care nu includ servicii plătite), procesul poate fi defalcat în patru domenii principale:
- Accesarea cu crawlere;
- Indexarea paginilor;
- Decizia utilizatorului/vizitatorului site-ului tău;
- Afișarea rezultatelor.
Accesarea cu crawlere
Este posibil să fi citit sau să fi auzit despre crawlerele motoarelor de căutare, boți sau păianjeni. Aceștia sunt toți termenii pentru același tip de programe pe care companiile ca Google le utilizează pentru a găsi conținut pe internet. Crawler-ul Google se numește Googlebot. Motoarele de căutare vor vizita o pagină web, apoi vor continua și vor vizita toate celelalte pagini la care este legată pagina respectivă. Acest proces este repetat pentru fiecare pagină nou întâlnită, sărind foarte rapid de la un site web la altul, circulând pe pe internet ca un fel de păianjeni.
Accesarea cu crawlere este un mod foarte eficient pentru ca Google să găsească conținut nou, dar în același timp se bazează, de asemenea, pe proprietarii de site-uri web pentru a încărca hărți ale siteurilor lor și astfel ajutând motoarele de căutare să găsească care pagini sunt cele mai importante.
Problemele legate de accesarea cu crawlere pot apărea din mai multe motive
O problemă foarte frecventă este aceea că păianjenii se blochează accidental în accesarea paginilor. Există motive întemeiate pentru care este posibil să nu dorești ca Google să facă accesarea cu crawlere a tuturor paginilor de pe siteul tău. Paginile „Coș de cumpărături”, spre exemplu, nu adaugă valoare rezultatelor căutării și, probabil, nu dorești ca pagina ta de conectare a site-ului să apară în rezultatele căutărilor Google.
Fișierele Robots.txt
Crawlere-le pot fi blocate prin plasarea de instrucțiuni pentru motoarele de căutare într-un fișier numit robots.txt, care este găzduit între fișierele site-ului tău (este obligatoriu ca toate site-urile să aibă un fișier robots.txt). Uneori, unii dezvoltatori fac greșeli atunci când adaugă instrucțiuni în acest fișier sau un anumit cod care poate să rămână acolo din întâmplare atunci când site-ul este lansat.
Tag-urile NoFollow
O altă metodă prin care Google nu urmărește niciun link care apare pe o anumită pagină web este prin plasarea unei instrucțiuni pe pagina web în sine: <META NAME=”ROBOTS”CONTENT=”NOINDEX, NOFOLLOW„>.
Paginile Orfane
O problemă care apare pe unele site-uri care se bazează foarte mult pe o funcție de căutare on-site pentru vizitatori pentru a găsi conținut/pagini este că nu există niciun meniu care să lege toate paginile site-ului împreună, astfel încât Google să nu poată găsi acele pagini. Aceste pagini sunt numite pagini orfane. Un exemplu foarte bun în acest sens poate fi un director de afaceri unde sunt listate diferite servicii și unde poți căuta utilizând domeniul și locația furnizorului respectiv, dar nu există legături de navigare către această pagină.
Indexare
În momentul în care Google a găsit toate paginile posibile prin accesarea cu crawlere și prin citirea fisierului sitemap.xml, atunci următoarea etapă este de a citi și de a înțelege aceste pagini. Google face acest lucru prin copierea paginilor și stocarea acestora în sistemele lor. Acest proces se numește indexare.
Cu siguranță veți auzi multe persoane care se referă la „Căutarea pe Web” atunci când utilizează Google, de fapt căutarea se face mai degrabă în indexul Google, decât pe internet în sine. Acest aspect este foarte important de reținut, deoarece Google nu decide întotdeauna să includă în baza sa de date toate paginile pe care le găsește atunci când site-ul tău este accesat cu crawlere.
Google poate să hotărască să nu includă în indexul lor anumite pagini de pe site-ul tău, în cazul în care conținutul acestor pagini este „Thin” sau „Duplicate”.
Conținutul „Thin”
Conținutul „Thin” apare atunci când mai multe pagini pe site-ul tău sunt foarte asemănătoare și nu au un conținut consistent. Un exemplu foarte bun ar fi acela al unui site de e-commerce care afișează o mulțime de produse dar acele produse au o descriere foarte succintă (sa spunem o propoziție doar). Din perspectiva Google, aceste pagini vor arăta practic la fel și nu vor oferi nicio valoare reală rezultatelor căutării.
Conținutul „Duplicate”
Conținutul „Duplicate” apare atunci când același conținut de text este utilizat pe mai multe pagini web.
Un exemplu de conținut duplicat pe site-ul tău este în cazul în care în magazinul tău online ai avea mai multe produse la care utilizezi aceeași descriere, cu o ușoară variație a acesteia:
- Husa Telefon din Piele de culoare Roșie;
- Husa Telefon din Piele de culoare Verde;
- Husa Telefon din Piele de culoare Neagră;
- Husa Telefon din Piele de culoare Albastră.
Conținutul duplicat pe mai multe site-uri poate apărea atunci când comercianții cu amănuntul listează produse utilizând descrierile produselor furnizate de producători sau un site copiază conținutul unui alt site.
Conținutul „Thin” și conținutul „Duplicate” reprezintă cea mai mare provocare cu care se confruntă majoritatea magazinelor online atunci când acestea își afișează produsele.
Probleme Tehnice
De asemenea, problemele tehnice pot determina ca paginile să nu fie adăugate la indexul Google. În mod similar cu accesarea cu crawlere, este posibil să dai instrucțiuni roboților Google să nu indexeze anumite pagini de pe site-ul tău. În mod ideal, vei dori ca indexul Google să conțină doar paginile importante de pe site-ul tău, cum ar fi produsele și conținutul. Multe alte pagini, cum ar fi paginile cu rezultatele căutărilor sau paginile de finalizare a comenzilor, ar trebui blocate la indexare.
<META NAME = „ROBOTS” CONTENT = „NOINDEX, NOFOLLOW”>
Uneori, aceste etichete de instrucțiuni pot fi adăugate în paginile greșite sau chiar în toate paginile site-ului, cauzând accidental ca website-ul tău să dispară din indexul Google.
Sancțiuni
Din dorința de a face cât mai mulți bani online și bineînțeles cât mai repede, unii oameni încearcă să învingă sistemul și să scurteze (mai corect ar fi să păcălească) drumul spre primele locuri în rezultatele căutărilor pe internet. În trecut, o modalitate de a obține rezultate rapide a fost aceea prin care se încerca păcălirea Google prin creșterea relevanței unei pagini web repetând aceleași cuvinte cheie și alte procedee asemănătoare. Acest lucru, evident, nu părea natural pentru vizitator, astfel că unii proprietari de site-uri au început să scrie cu text alb pe fundal alb. Acest lucru nu a fost eficient pentru foarte multă vreme și dacă vei încerca să te folosești de acest tertip, mai devreme sau mai târziu Google va descoperi și îți va refuza adăugarea site-ului în indexul lor.
Decizia utilizatorului/vizitatorului site-ului tău
Atunci când un utilizator introduce un termen de căutare în pagina Google, scopul principal al companiei Google este de a oferi cea mai relevantă informație. Aceasta este de departe cea mai complexă parte a procesului, fiind luați în considerare sute de factori.
Afișarea rezultatelor
Ultimul pas este acela când Google afișează rezultatele căutării. Dacă ai făcut o treabă bună în sensul de a construi un site accesibil și suficient de interesant pentru ca Google să îl includă în rezultatele lor, asigură-te că, de asemenea, nu vei rata nicio ocazie de a-i atrage atenția celui care caută informația, procedând în așa fel încât listarea conținutului site-ului tău să iasă cât mai mult în evidență.
În mod sigur credem că ți-ai făcut timp suficient pentru ca titlurile paginilor site-ului tău să fie cât mai relevante, dar nu trebuie să uiți că, în cele din urmă, în fața ecranului va fi o persoană care va lua decizia de a da click către site-ul tău sau nu. Dacă până acum nu ai dat importanță acestui lucru, atunci e timpul să te apleci cu foarte mare atenție asupra acestei probleme.
Dă-i o formă conținutului ca și cum ar fi un articol dintr-o revistă și nu doar simple informații de despre produsul tău.
O concluzie de final
Sperăm că acum vei avea o idee mai clară despre numărul de pagini de pe site-ul tău care ar trebui să fie indexate. Dacă nu, atunci puteți obține o estimare brută prin adăugarea la numărul de produse active listate în magazinul tău online, numărul postărilor de pe blog și numărul paginilor de conținut (pagina Termeni și condiții, Politica de confidențialitate, Pagina Despre noi etc.) 50%.
O bună metodă de a descoperi că este posibil să ai o problemă legată de accesarea cu crawlere sau de indexare este aceea de a compara numărul de pagini pe care crezi că ar trebui sa fie în index cu numărul de pagini pe care Google îți spune că le-a indexat. Indicația cea mai precisă despre acest lucru va fi raportată în contul tău „Google Search Console”, în secțiunea Index Google > Index. Dacă totuși nu ai acces la „Search Console”, poți efectua o căutare pe site, introducând numele domeniului tău, în formatul „site:domeniultau.ro„.
Dacă numărul de pagini este mult mai mic decât te-ai fi așteptat, acest lucru indică faptul că este posibil să existe o problemă și că Google nu poate găsi paginile tale sau pur și simplu a decis să nu le indexeze.
Dacă numărul este mult mai mare, atunci este foarte posibil să ai o problemă tehnică și site-ul tău să creeze adrese web care sunt indexate iar ele de fapt ar fi trebuit să fie blocate. De exemplu poate fi cazul în care o căsuță de căutare a unui produs de pe un site creează un număr nelimitat de pagini web care de fapt ar trebui să fie blocate la accesarea cu crawlere și implicit indexate.
Dacă întâmpini o scădere bruscă a traficului de pe site-ul tău, atunci primul lucru pe care ar trebui să îl faci ar fi să verifici dacă nu cumva motoarele de căutare sunt blocate la accesarea cu crawlere a siteului. Poți verifica acest lucru creând un cont „Google Search Console” și utilizând instrumentul de testare a fișierului Robots.txt.
În cazul în care întâmpini probleme în testarea site-ului tău, atunci ar fi indicat să obțineți ajutor calificat cât mai curând posibil pentru a afla care este cauza dispariției traficului.