Základy SEO optimalizace

SEO, tedy search engine optimalization je pojem, který je u tvorby webu klíčovým základem pro to, abyste byli na internetu vidět. Jinými slovy, aby vyhledavače při dotazu na obsah, kterým se Váš web zabývá, nabídly uživateli na prvních pozicích právě Vaší stránku. Nyní se spolu můžeme podívat na základy SEO optimalizace webu a co je dobré dodržovat.

Základy SEO optimalizace

Pojďme si tedy představit několik základních pravidel, která Vám pomohou dostat se na vyšší pozice ve vyhledávání.

Obsah – základ, který tvoří web

Hlavním předpokladem pro to, aby se web umístil na prvních pozicích při vyhledávání, není nic jiného, než kvalitní, dobře strukturovaný a často aktualizovaný obsah. Můžeme se řídit jednoduchým pravidlem, že tam, kde nemáte žádný obsah (či tam kde máte obsah špatný či neaktuální), nelze také zpravidla ani co indexovat (indexací myslíme ukládání obsahu webu vyhledávačem pro pozdější případné poskytnutí obsahu uživateli). Vždy je tedy dobré, napsat obsah článků odpovídající nadpisům, abyste u eshopu měli aktuální data která doplníte popisky zboží (případně dostupností) a abyste měli obsah unikátní (vyhnout se např. kopírování textu z Wikipedie či jiných webů).

Zdrojový kód webu

U zdrojového kódu webu nejvíce záleží na jeho validitě. O validitě webu mluvíme tehdy, když porovnáváme, zda je kód napsaný v souladu s mezinárodními standardy, či nikoliv. Stejně tak, jako např. v Českém jazyce rozlišujeme, kdy napsat tvrdé a měkké i/y, tak i u zdrojového kódu se rozlišuje, zda jsou PHP funkce či HTML tagy napsány tak, jak by měly být. Ve výsledku pak zdrojový kód dělíme na validní, tedy napsaný zcela podle pravidel W3C, a nevalidní, s chybami. Zdrojový kód, který je bez chyby, je vyhledávacím robotem opět více upřednostněn před kódem, který chyby obsahuje. Je-li je Váš web validní či nevalidní, to se dá velmi jednoduše zjistit pomocí tzv. validátoru. Jeden je např. zde: http://validator.w3.org/

Duplicita webu

Aby se na internetu zabránilo kopírování obsahu mezi jednotlivými weby, zavedly vyhledávače tzv. kontrolu duplicity. Princip této kontroly je jednoduchý. Vyhledávací robot zaindexuje stránku s libovolným obsahem a v případě, že v budoucnu narazí na jiný web, kde nalezne stejný nebo velmi podobný obsah, označí takovýto nalezený web za duplicitní. Zároveň mu s tímto označením přidělí jakési trestné body a posune jej v žebříčku vyhledávání mnohem níže. Obecně platí pravidlo, že jako duplicitní je označen ten web, který je robotem nalezen jako druhý (předpokládá se, že originální text se vyskytl na webu, který se zaindexoval jako první a že na ostatních webech byl text zkopírován později). S kontrolou duplicity však vzniká zásadní problém při používání doménových aliasů a při používání domény s variantou s i bez WWW. Pro vyhledávacího robota je adresa www.domena.cz a domena.cz (bez www) vždy jinou stránkou (avšak se stejným obsahem).

Tím pádem se stane to, že jednu z nich označí jako duplicitní, byť se jedná o stále stejný web. Proto je tedy vhodné vybrat si pouze jednu variantu a tu druhou přesměrovat. Ukažme si to názorně na příkladu. Budeme mít stránky pod doménou domena.cz. Zároveň budou ale tyto stránky dostupné také jako www.domena.cz. Tento stav pro nás není žádoucí. Je dobré, abyste si vybrali pouze jednu variantu. Pro tento příklad se tedy můžete rozhodnout, že budete používat variantu s WWW. Web tedy bude dostupný pod adresou www.domena.cz. Abyste ale měli funkční obě varianty (a nepřicházeli o uživatele), musíte si zařídit přesměrování. Tedy, pokud někdo zadá domena.cz (bez www), měl by být automaticky přesměrován na adresu, která obsahuje subdoménu www.

Přesměrování

Přesměrováním vyhledavači sdělíte, že nemáte na webu duplicitní obsah ale že máte jeden web s více adresami. Zároveň ale budete mít funkční obě varianty stránky. Totéž se vztahuje i na libovolné použité aliasy (pokud máte na jednom webu nastaveno více domén). Přesměrování můžete provést mnoha způsoby. Na linuxovém serveru např. pomocí rewrite pravidel a souboru htaccess, na jakémkoliv jiném serveru např. pomocí PHP či ASP skriptu (nebo pomocí souboru web.config viz Automatické přesměrování webu z HTTP na HTTPS).

Zde vám ukážu příklad nejjednoduššího pravidla pro rewrite a htaccess soubor:

RewriteEngine On
RewriteCond %{HTTP_HOST} ^domena.cz [nc]
RewriteRule (.*) http://www.domena.cz/$1 [R=301,L]

Pravidlem určíte, že po zadání domény bez WWW dojde k okamžitému přesměrování na doménu, která www na začátku obsahuje.

Index webu – první, co uvidí nejen uživatel, ale i vyhledávací robot

Indexová stránka webu je pro Vás tou nejsilnější. Co se SEO týče, nikdy ji nenechte prázdnou, nebo bez textu. Často můžete udělat chybu např. umístěním rozcestníku na indexovou stránku. Uživatel zadá do prohlížeče jméno vaší domény a hned v úvodu se dostane na stránku, kde si může zvolit např. jazykovou mutaci webu nebo to, zda chce do eshopu či na web s články. Zatímco člověk takovýto rozcestník pochopí celkem dobře, vyhledávací robot bohužel ne. Zaindexuje zpět informaci, že hlavní stránka vašeho webu je prakticky prázdná, čímž se vám zároveň radikálně sníží možnost umístit se na vysoké pozici.

404 chybová stránka

I chybová stránka má z hlediska SEO určitý význam. Říká nejen uživateli, ale i vyhledávacímu robotu, že stránka, na kterou se snaží přistupovat neexistuje. Pro vyhledávacího robota to pak znamená, že takovouto stránku a její URL adresu nemusí indexovat. Můžete použít dva druhy chybových stránek 404. Pojmenujme je jako hard 404 a soft 404.

Soft 404 chybová stránka je taková stránka, kdy je uživatel při zadání neexistujícího odkazu přesměrován zpět na index webu. Takovéto řešení není úplně vhodné. Ve většině případů se totiž uživatel vůbec nedozví, že se stalo něco špatně, resp. že se nedostal na požadovanou stránku, na kterou se zamýšlel dostat. Tím se také může stát, že mnoho uživatelů od vašeho webu odradíte. Uveďme si příklad. Uživatel do vyhledávače zadá jako klíčové slovo např. mobilní telefon nějaké značky. Vyhledávač bude mít zaindexovanou stránku s daným produktem na vašem webu. Vy jste ale mezitím produkt vyřadili z prodeje. Uživatel klikne ve vyhledávači na odkaz, avšak díky soft 404 se dostane na indexovou stránku, kde daný mobilní telefon samozřejmě nenajde. Ve většině případů ihned odejde.

Hard 404 je proti předchozímu příkladu jasně definovaná chybová stránka s informací, že URL kterou uživatel požaduje, neexistuje. V obvyklém případě můžete uživateli na chybové stránce uvést alternativy, kam se místo hledaného produktu či stránky na webu může podívat (u eshopu to mohou být např. podobné produkty či produkty téže firmy). Z hlediska vyhledávačů a SEO je lepší používat tuto variantu chybové stránky. Pro vyhledávače je to totiž jasný impuls k tomu, že požadovaná stránka již na webu prostě není a není ji tedy nutné ani dále indexovat.

Používejte nástroje pro vývojáře, poskytované samotnými vyhledavači

Aby byla práce s indexováním webu a SEO trochu jednodušší, má každý větší vyhledávač nástroje pro vývojáře. Vývojářem se zde myslí každý, kdo vytváří či programuje webové stránky. Mezi nejpoužívanější nástroje tohoto typu lze zařadit Webmaster tools od Google či Bing tools od Microsoft Bing. Tyto nástroje můžete najít pod těmito odkazy:

Google search console: Google search console
Bing webmaster tools: Bing webmaster tools

Díky těmto nástrojům můžete sledovat mimo jiné i to, jak moc vaše stránky daný vyhledávač indexuje, jaká klíčová slova uživatelé při přístupu na vaše stránky zadávají, jaký obsah konkrétně hledají a mnohé jiné. Pro odladění webu, co se obsahu a vyhledávání týče, jsou tyto nástroje takřka nepostradatelné.

Kam vyhledávací robot smí a kam již nikoliv

Ne vždy je z vaší strany žádoucí, aby veškerý obsah vyhledávač ukládal a indexoval. Existuje soubor, který vyhledávacímu robotu přikáže, na který obsah webu se podívat může a na který nikoliv. Tomuto souboru říkáme robots.txt. Princip tohoto souboru je jednoduchý. Na FTP webu nahrajete soubor pojmenovaný robots.txt a do něj pak vložíte patřičná pravidla, podle kterých se musí roboti chovat. Soubor nahrajete do rootu webu a měl by být pojmenovaný malými písmeny. Každý robot má pak „v popisu práce“ nastavené nejprve to, že dříve, než začne vyhledávat informace na Vašem webu, musí si vyhledat tento soubor a podřídit se pravidlům v něm napsaným.

Ukažme si příklad pravidla v souboru robots.txt:

User-agent: Googlebot
Disallow:
User-agent: Seznambot
Disallow: /

Vyhledávací robot je v pravidlech označený jako User-agent. Pravidlem disallow pak určujete, kam daný robot nesmí. Pravidlem výše tak ukazujete, že robot vyhledávače Google může prohledat všechen obsah vašeho webu (do řádky disallow jsme mu nic nenapsali, tudíž ani nezakázali). Naproti tomu robot vyhledávače Seznam nesmí na webu indexovat nic (do řádky disallow jsme vložili lomítko, které v tomto pravidle nahrazuje slovo vše). Výsledek je takový, že web s těmito pravidly se objeví při vyhledávání pouze na Googlu, avšak na Seznamu pravděpodobně nikdy. Obecné pravidlo o souboru robots.txt zní tak, že byste měli být tento soubor na FTP uložen vždy. Pokud chcete, aby se váš web indexoval všemi roboty bez výjimky, stačí na FTP webu uložit soubor s tímto pravidlem:

User-agent: * Disallow:

Tímto pravidlem sdělujete robotovi (slovo každý je označeno symbolem *) že smí indexovat jakýkoliv obsah webu (v položce disallow nemáte napsáno/zakázáno nic).

Hezké URL

Otázka hezkých či přátelských URL adres je v SEO poměrně hodně diskutovaná. Víceméně však platí, že vyhledávací roboti neradi indexují stránky, které mají v URL velmi mnoho proměnných. V opačném případě je vyhledávači v podstatě jedno, zda máte URL adresu v hezkém formátu (domena.cz/novy-clanek) či v tom klasickém (domena.cz/?clanek_id=5). Hezké URL tedy nabývají většího významu spíše pro samotné uživatele, kteří na web přistupují a kterým se tak web jeví mnohem přehlednější. Pokud není v URL použito více proměnných, nemá pro vás hezké URL většího významu. Přepis URL do hezké textové podoby tvoříte v 99 % pomocí pravidel vepsaných do souboru .htaccess. Pro použití takovýchto URL je důležité, abyste měli web na serveru, který podporuje tzv. mode rewrite (dnes prakticky každý webový server).

Jak psát text na web

Mnoho vyhledavačů také hodnotí kvalitu obsahu. Je dobré, abyste dodržovali základní pravidla pro psaní textu tak, aby byl text jak pro čtenáře, tak i pro vyhledavače kvalitní.

  1. je dobré abyste si dávali pozor na gramatické chyby
  2. snažte se co nejméně používat trpný rod v textu. Nahraďte jej rodem činným. Viz https://www.mojecestina.cz/article/2012011401-cinny-a-trpny-rod
  3. používejte tranzitní slova (nejdůležitější je, toto musíte provést a pod.) Těmito slovy navádíte uživatele v textu a děláte jej přehlednější
  4. vybírejte správná klíčová slova
  5. používejte odstavce a nadpisy (H1 a H2), usnadňují orientaci v textu
  6. Pozor na délku článku (článek na blogu by měl mít alespoň 300 slov)
  7. u redakčních systémů použijte plugin pro SEO optimalizaci
  8. pokud umístíte na web či do článku obrázky, používejte popisky obrázku ALT (podle popisků pak vyhledavače obrázky indexují)
  9. používejte interní i externí odkazy na obsah
  10. zapojte sociální sítě

SEO a WordPress

Jaký plugin používám pro WordPress já? Nejvíce se mi aktuálně osvědčil plugin Yoast SEO.  Stáhnout jej můžete přímo v oficiálním repozitáři WordPressu nebo na URL: https://wordpress.org/plugins/wordpress-seo/

Tento plugin Vám pomůže se základním nastavením SEO u webu, zároveň pak také analyzuje každý článek, vyhodnotí chyby a dává Vám zpětnou vazbu a návody k řešení. Každý článek pak označí trojicí barev. Červenou, oranžovou a zelenou podle kvality optimalizace a čitelnosti. Problémy dokáže ukázat i přímo v napsaném textu. Máte tak možnost článek zpětně editovat a problémy vyřešit.

Byl pro Vás tento článek užitečný?

Klikni na počet hvězd pro hlasování.

Průměrné hodnocení. 0 / 5. Počet hlasování: 0

Zatím nehodnoceno! Buďte první

Jak užitečný vidíte tento článek.

Sledujte mě na sociálních médiích.

Je mi líto, že pro Vás nebyl článek užitečný.

Jak mohu vylepšit článek?

Řekněte mi, jak jej mohu zlepšit.

Napsat komentář