Uvijek kada započnem novi SEO projekat, postoji nekoliko ključnih koraka i provjera koje radim kako bih dobio jasniju sliku stanja web projekta.

Zašto? Zato što je moje vjerovanje da je razumijevanje problema sajta/web stranice ključno za uspješnu optimizaciju. Mnogi SEO tehničari, nažalost, odmah počinju s optimizacijom, ne trošeći vrijeme da u potpunosti shvate i otkriju probleme stranice.

Ovakav pristup često dovodi do nepotrebnih ili neefikasnih akcija, pa čak i do toga da se ne riješe pravi problemi koji koče stranicu da ostvari svoj puni potencijal u pretraživačima.

Rado bih ovdje napomenuo da ovi moji koraci, dole navedeni, nisu uklesani u stijenu nego naravno da mogu da variraju od slučaja do slučaja.
Kad imate kompletno novi websajt ili ste još u fazi planiranja, ili imate većih tehničkih problema tada SEO koraci izgledaju malo drugačije.

Moji prvi koraci u SEO analizi
  • Prvo i osnovno je provjera robots.txt datoteke: Datoteka robot.txt treba da bude dio web-sajta i ako je nema na web mjestu, napravite ga.
    Ta datoteka daje instrukcije pretraživačima (kao što je Google) koje dijelove web stranice smiju, a koje ne smiju indeksirati (unijeti u svoj indeks). Kada provjeravam robots.txt, želim biti siguran da instrukcije iz te datoteke ne blokiraju ništa važno što bi trebalo biti vidljivo pretraživačima.
    Također, provjeravam da li postoji referenca na sitemap, koja je poput liste/karte stranice /resursa za pretraživače, olakšavajući im navigaciju i razumijevanje strukture web sajta.
    Sa site_map odredjujemo i koje stranice ne indexirati.
    Obično možete pronaći robots.txt na [ stranica.ba/robot.txt ].
    U njoj tražim “Disallow:” direktive i provjeravam da li slučajno blokiraju neke važne stranice ili resurse.

    Zašto su robot.txt datoteke važne?
    Pretraživači (u ovom slučaju najviše nas zanima google.ba, naravno) imaju dva glavna zadatka:
    Prvo “pročešljati” web u potrazi za sadržajem i drugo, indeksirati taj sadržaj kako bi ga mogli prikazati korisnicima koji traže informacije.

    Da bi “pročešljali” web stranice, pretraživači prate linkove kako bi prelazili s jedne stranice na drugu — i tako na kraju “pročešljavaju” milijarde linkova i web stranica. Ovo “pročešljavanje” se ponekad naziva i “paukovim mrežama” ili na engleskom “spidering”.

    Prije nego što krene sa “pročešljavanjem” web stranice, pretraživač će potražiti datoteku robots.txt. Ako je pronađe, pretraživač će prvo pročitati tu datoteku prije nego što nastavi dalje. Budući da datoteka robots.txt sadrži informacije o tome kako bi pretraživač trebao “pročešljavati” stranicu, informacije pronađene tamo će uputiti pretraživača kako da dalje nastavi na toj određenoj stranici. Ako datoteka robots.txt ne sadrži nikakve direktive koje zabranjuju aktivnost “pauka” (ili ako stranica nema datoteku robots.txt), pretraživač će nastaviti sa “pročešljavanjem” ostalih informacija na stranici.
    Vise o temi robots.txt, kako uraditi kao i praktične primjere pročitajte na ovom blogu kolege Mirsada.

  • Provjera ozbiljnih grešaka u Search Console:Google Search Console je Google besplatni alat koji nam omogućava da vidimo našu web stranicu očima Google-a.
    Naravno za ovu provjeru vam treba pristup Search konzoli, ali ako ga nemate, a imate pristup web stranici, možete je postaviti i onda sačekati par dana da ona prikupi podatke o sajtu jer novopostavljena Search Console je obično prazna i bez dovoljno materijala za analize i potrebno je da prođe par dana da bi one počel da prate desavanja na sajtu.
    Ovdje tražim probleme s indeksiranjem, što znači da Google možda ne vidi ili ne razumije dijelove vaše stranice. Kada pisem riječ “indeksiranje“, onda mislim na proces u kojem Google analizira i pohranjuje informacije o vašem web mjestu kako bi je mogao prikazati u svojim rezultatima pretrage.
    Počinjem s pregledom stranica i tražim “Crawled – currently not indexed“, što znači da je Google pronašao stranicu, ali je (iz nekog razloga) nije indeksirao.
    Zatim provjeravam “Settings > Crawl Stats” kako bih vidio kako je Google indeksirao stranicu – koliko često posjećuje stranicu, da li ima problema prilikom pregledavanja itd.

Ove informacije mi mogu ukazati na potencijalne probleme koje treba riješiti.

zasto se stranice nisu indexirale u Google-u
  • Pregled izvornog koda: Desni klik na stranicu i izbor opcije: “View page source” otvara novi džep sa kodom stranice. Ne morate biti programer da biste razumjeli osnove, ovdje je sve tekst i par riječi na engleskom koje su bitne.
    Ovdje tražim elemente koji imaju uticaj na SEO, kao što su “noindex” tagovi (koji govore pretraživačima da ne indeksiraju tu stranicu), “canonical” tagovi (koji linkuju prema preferiranoj verziji stranice ako imate duplicirani sadržaj) i “hreflang” tagovi (koji se koriste za višejezične stranice).
    Također provjeravam da nema nekih čudnih linkova koji bi mogli štetiti SEO-u, poput linkova koji vode na sumnjive ili nekvalitetne web stranice.
  • Provjera promjena u istorijatu web-mjesta: Alat poput Ahrefs-a je kao vremeplov za vašu web stranicu.
    Ovaj alat mi omogućava da vidim kako se stranica mijenjala tokom vremena, što je posebno korisno za pronalaženje uzroka problema.
    Tražim velike padove u prometu koji bi mogli ukazivati na probleme poput Google kazni (ako je sajt prekršio Googleova pravila) ili promjena algoritma (kada Google ažurira način na koji rangira stranice), ili još gore, izmjene na stranici koje su izazvale pad organskog prometa.
    Takve izmjene se najčešće dešavaju kad se radi “vizuelno poboljšanje”, ili kako neki vole da kažu “redizajn” stranice. Tada se, nažalost, najčešće ne razmišlja o SEO optimizaciji i vidljivosti kao i zadrzavanja postojecih pozicija u Google, tako da rezultat nekad bude drastičan pad organskog prometa, ili totalni nestanak stranica iz indexa.
    Također provjeravam da linkovi koji vode na stranicu ne vraćaju 404-grešku (stranica više ne postoji), a ovo je važno jer pokvareni linkovi mogu štetiti organskim posjetama i SEO-u.
  • Sljedeći korak je provjera kako Google renderira stranicu: Alat “URL Inspection” u Search Console mi omogućava da vidim kako Google vidi stranicu nakon što je obradi. Ovo je ključno, jer se cesto ono što mi vidimo na ekranu razlikuje od onoga što vidi Google.ba.
    Na primjer, Google bots možda ne može pristupiti nekim resursima (kao što su recimo neki JavaScript, fotografije i sl.) zbog načina na koji je stranica kodirana. Želim da budem siguran da Google može vidjeti sav važan sadržaj na stranici, uključujući tekst, slike i video zapise i da je ono što mi hoćemo da se vidi, vidljivo i Google-u.
    Ovdje sam fokusiran veci dio na mobilnu verziju web stranice za mobilne platforme. Taj aspekt pretrage je postano najvazniji, a radi izmjena koje je Google nedavno uradio, gdje za indeksiranje stranica koristi samo smartphone bot.
zasto se stranice nisu indexirale u Google-u
  • Analiza profila ulaznih linkova: Backlinkovi, ili linkovi sa drugih web sajtova koji vode na vašu stranicu, su važan faktor za rangiranje u pretraživačima. Možete ih zamisliti kao neku vrstu preporuka od drugih stranica koje Google koristi da bi dobio sliku o “težini” sajta i “reputaciji” na Internetu.
    Ja u radu koristim Ahrefs, Wincher SEO Spider kao naravno i GSC i GA, ako su dostupni, kako bih analizirao ulazne linkove koji vode prema stranici.

  • Ovdje tražim dvije stvari: prvo, tražim znakove spam linkova, koji su obično linkovi sa sumnjivih ili nekvalitetnih web mjesta. Ovi linkovi mogu štetiti SEO-u, pa ih je važno identificirati i ukloniti.
    Drugo, provjeravam distribuciju i kvalitet “anchor teksta” (teksta koji se koristi za link).

    Preveliki postotak komercijalnog anchor teksta (“kupi sada”, “naruči online” i slično) može izgledati neprirodno pretraživačima i potencijalno dovesti do problema.

Wincher za trziste BiH i .ba domenu
Wincher za trziste BiH i .ba domenu

Wincher alat je tek odnedavno uvstio i .google.ba za trziste Bosne i Hercegovine

  • Testiranje sadržaja: U ovom koraku jednostavno kopiram dio teksta sa svoje stranice i pretražujem ga na Google.ba.
    Savjet: Stavite dio teksta u znake navoda pri takvoj pretrazi na Google.
    Cillj je vidjeti da li je moja stranica jedina koja ima taj sadržaj i u potrazi sam za kopijama istog teksta na više drugih web-sajtova. Duplicirani sadržaj može izazvati zabunu kod Google pretraživača i negativno utjecati na rangiranje, jer ne zna koju verziju sadržaja da prikaže u rezultatima pretrage.
    Samo jedna verzija teksta u Google index-u može da bude original i ta verzija obično rangira najbolje.
  • Potraga za dupliciranim sadržajem: Osim testiranja sadržaja na Google-u, također ručno pregledam cijelo web mjesto i tražim sumnjive URL-ove koji bi mogli ukazivati na dupliciranje sadržaja. To mogu biti stranice koje su vrlo slične jedna drugoj, stranice koje se generišu dinamički (npr. stranice za filtere proizvoda u online trgovinama) ili stranice koje su dostupne na više različitih URL-ova.
    Duplicirani sadržaj može zbuniti pretraživače i otežati im određivanje koje stranice treba rangirati više, pa je važno riješiti ovaj problem.

Nakon što sam završio sve navedene provjere i time stekao jasnu sliku o stanju web stranice i potencijalnim problemima, vrijeme je za akciju!

Počinjem s SEO optimizacijom, koristeći alat Page Speed Insights koji mi pomaže da identificiram probleme s brzinom učitavanja stranice (što je važno i za korisnike i za pretraživače).
Zasto je brzina sajta bitna za SEO posao mozete pročita više ovdje na mom postu o brzini stranice i kakav uticaj brzina ima na SEO.

Zatim se posvećujem detaljnoj On-page optimizaciji koja, između ostalog, uključuje optimizaciju naslova stranica (title tagovi), meta opisa (description tagovi), tekstova na stranicama, alt tekstova slika (koji opisuju slike pretraživačima) i drugih elemenata koji mogu uticati na to kako Google pretraživač vidi i razumije vaš sajt.

Nadam se da je ovo donekle pomoglo onima koji se pitaju kako drugi SEO tehničari započinju svoj rad. Ovo je naravno tek prvih par sati posla u ozbiljnijoj SEO analizi i radu na stranici.

Ako ste mišljenja da je ovaj tekst vrijedan vremena, podjelite ga na mrežama i posjetite nas ponovo.

Ako vas zanima kako uspjesno mjeriti ulaganja i uspjehe SEO rada onda bih preporučio odličan tekst mog kolege Mirsada o tome kako mjeriti uspjesnost SEO na ovom linku.

O autoru:

Mensur Muhic

Mensur Muhić

Autor ovog teksta je Mensur Muhić sa 30+ godina iskustva u IT i web produkciji. Radio je izmedju ostalog u Electrolux-u, IBM-u, i u zadnje vrijeme u SEO agenciji Oxit.

SEO fokusiran. Fokusiran na rezultate.
Van radnog vremena je gitara i fotografija opsesija.

Mozete ga kontaktirati na mensur@optimizacija.ba