23.01.2012, 08:00:00
Než se objeví stránka ve výsledcích vyhledávače, je třeba aby ji vyhledávač zaregistroval a indexoval. Je třeba aby stránku navštívil tzv. robot vyhledávače, aby si stránku analyzoval a následně ji indexoval do databáze vyhledávače. Pokud je stránka v databázi vyhledávače a je tedy indexována, pak je možné ji najít ve výsledcích vyhledávání. V opačném případě o ní vyhledávač nic neví a vlastně ji vůbec nezná, takže o ní nemůže ani nijak informovat.
Většina stránek, které mají desítku až stovku podstránek, jsou obvykle indexovány korektně. Pokud má web tisíce a více podstránek, pak je třeba se indexování pečlivě věnovat a nastavit pravidla tak, aby bylo indexováno co největší množství takových stránek. Obecně je dobré myslet na následující body a pak by nemělo optimalizaci nic bránit.
Pokud máme novou stránku, pak existují stránky vyhledávačů, na kterých je o nové stránce můžeme informovat. Následně vyhledávač pošle na naše nové stránky robota, který si web projde, analyzuje a indexuje co je podle něj vhodné. Tzn. my jsme ti, kdo vyhledávač informuje, že tu existuje nová stránka a že by ji měl vyhledávač indexovat. Vyhledávač stačí informovat pouze o hlavní stránce, zbytek podstránek si robot vyhledávače již dohledá sám.
Druhou cestou jak informovat vyhledávač je získat alespoň jeden zpětný odkaz na nový web. Takový odkaz je možné získat z katalogu, zmínkou v nějaké diskuzi apod. Takto si naše stránky najde vyhledávač sám. Ve většině případů to dostačuje a vyhledávač se o našich stránkách dozví rychleji, než když jej budeme sami informovat. Indexování stránek obvykle trvá od několika dnů až několik týdnů a to v závislosti na vyhledávači a velikosti webu.
Dále bychom se měli snažit, aby byly stránky přizpůsobeny vyhledávačům. Zde je několik doporučení.
Všechny stránky by měly být dostupné z hlavní stránky na maximálně tři kliknutí. Pokud to struktura webu neumožňuje, je třeba vyhledávačům připravit tzv. mapu stránek, která umožní vyhledávačům projít všechny stránky.
Nepoužívejme identifikátory relace, tzn. session, případně další pomocné parametry je třeba taky vynechat nebo omezit. Pokud už se tak stane, je třeba si ověřit, že tím nevzniká duplicitní obsah. Duplicitní obsah snižuje hodnotu obsahu jednotlivých stránek a je to velká škoda.
Také je třeba si uvědomit, že vyhledávač neindexuje celou stránku ale cca prvních 100-200kB textu na stránce. Pokud bude stránka větší, tak ji vyhledávač nemusí vůbec indexovat. Proto by stránky neměly obsahovat více obsahu než je nutné, včetně HTML zdrojového kódu. Ne to je potřeba si dát velice pozor, že stránka není jen viditelný text, ale kompletní zdrojový HTML obsah.
Také je možné ovlivnit chování robotů na webu pomocí souboru robots.txt. V tomto souboru je možné nadefinovat, které stránky se mají indexovat a opačně, které stránky má robot vyhledávače zcela ignorovat.
Databáze vyhledávače je neustále aktualizována, záznamy v ní se proto mění, naše stránky mohou být přidány, ale také mohou zcela zmizet nebo se znovu objevit. To je důvod, proč se někdy počet indexovaných stránek na našem webu může občas lišit. Nejčastějším důvodem pak je nedostupnost samotného webu. Pokud přijde robot na naše stránky a stránky jsou zrovna nedostupné, tak si robot může myslet, že předali existovat a vyřadí je tak ze své databáze.
Čím více mají stránky zpětných odkazů, tím rychleji budou opět indexované. Indexování stránek lze sledovat pomocí různých analytických nástrojů. Např. můžete využít Webmaster Tools od Google.
13.01.2012, 08:00:03
Za nefunkční odkazy
Stránky, které mají odkazy, které vedou na nefunkční stránky jsou hodnoceny jako stránky, o které se nikdo nestará. Proto je vhodné takovéto odkazy monitorovat a případně je odstranit. Ideální je pro takovou kontrolu Webmaster Tools od Google.
Za dlouhé načítání stránky
Je třeba mít na paměti, že pokud se bude stránka dlouho načítat, robot vyhledávače takovou stránku patrně bude ignorovat, protože si bude myslet, že neexistuje. Proto je dobré mít stránky technicky v pořádku a monitorovat si i poskytovatele hostingu stránek, jestli u něj nedochází k častým výpadům apod.
12.01.2012, 08:00:29
Za vlnu odkazů
Pokud nakoupíme jednorázově hodně odkazů, můžeme dostat penalizaci. Je velmi nepravděpodobné, že web získá za jeden den stovky nebo tisíce zpětných odkazů. Proto je dobré získávání zpětných odkazů rozložit v čase tak jako by šlo o přirozenou cestu.
Za přeoptimalizování
To znamená, že nás vyhledávač bude hodnotit jako bychom optimalizovali web podvodnou metodou. Je třeba si dát pozor, aby poměr optimalizovaných klíčových slov byl adekvátní celkovému obsahu. Je potřeba si dát pozor, aby na stránce nebylo příliš mnoho klíčových slov a také je třeba s rozumem zaházet z tagem STRONG apod.
Filtr „doplňující výsledky“
Při kontrole, kolik je indexovaných stránek ve vyhledávači, se můžete setkat na poslední stránce s možností zobrazení doplňujících výsledků. Tyto výsledky jsou pro vyhledávače bezvýznamné. Stává se to z toho důvodu, že tyto stránky neobsahují zajímavý obsah či jsou obdobné s jiným webem. Tento filtr či ban se dostává pro jednotlivé podstránky, nikoliv na celou webovou stránku. Abyste docílili jeho odstranění, pak stačí dát pár odkazů z vnitřních stránek.
11.01.2012, 08:00:01
Je to jedna z nejstarších metod optimalizace, nicméně dnes už je značně neefektivní a vyhledávače ji umí lehce odhalit. Pokud se rozhodneme budovat si zpětné odkazy a jsme ochotni vynaložit nemalé prostředky za nakoupení těchto zpětných odkazů, pak je lepší se výměně zcela vyhnout. Pokud už jsme přesvědčeni, že by pro nás výměna byla dobrá, pak už si dejme záležet a udělejme tzv. trojcestnou výměny. My budeme odkazovat z našeho webu A na web B a web C bude odkazovat na náš web A. Toto je ideální varianta, kdy není dohádatelné vzájemné propojení. Případně je možnost kruhově to propojit, kdy navíc web B bude mířit na web C. Ale zde už je možné dohledat souvislosti. Výměna, že náš web A míří na web B a web B pak odkazuje na náš web A je prakticky cestou k penalizaci. Tuto výměnu vyhledávače velice snadno analyzují a v lepším případě takové odkazy ignorují. V horším dostaneme ještě penalizaci.
10.01.2012, 08:00:48
Vyhledávače umí dobře analyzovat, jaké stránky na nás odkazují a jaké na nás vedou odkazy. Proto si pečlivě vybírejme od koho kupujeme odkazy a kam je kdo za nás umísťuje. Všechny odkazy, které tvoříme pro optimalizaci, bychom měli mít pod kontrolou.
Protože pokud na náš web povedou odkazy například z porno stránek nebo na náš web povede příliš mnoho odkazů z webů s naprosto odlišným obsahem a tématikou, pak za to můžeme také získat nepříjemnou a zbytečnou penalizaci.
09.01.2012, 08:00:29
Často se stává, že se optimalizují stránky podvodnou metodou. Nejčastějším podvodem optimalizace je to, že máme jinou optimalizovanou stránku pro vyhledávače a jinou pro uživatele. Na stejné adrese máme tedy dvě varianty. Pokud přijde robot vyhledávače, tak mu zobrazíme neoptimalizovanou stránku, plnou SEO praktik, tak aby byla stránka na co nejlepším místě ve výsledku vyhledávání. Když pak přijde na stránku uživatel, zobrazí se mu úplně jiné informace. Lze toho docílit, že pomocí skriptů, například JavaScriptu, je uživatel přesměrován na jinou adresu, aniž by si toho všiml. Nebo pomocí CSS jsou nevhodné části stránky pro uživatele schované, tak aby he prohlížeč nezobrazil. Případně obsah má stejnou barvu jako je pozadí apod. To vše je podvodné a vědomé obelhání robotů. Pokud na to někdo vyhledávač upozorní, nejčastěji vaše konkurence, nebo na to vyhledávač přijde sám, pak takové stránky většinou úplně vyřadí ze své databáze nebo je posune značně dozadu.
Proti takovéto penalizaci většinou nelze nic dělat a je lepší a levnější řešení vybudovat si nový web na jiné doméně. Proto se těmto metodám opravdu a důrazně vyhýbejme.
08.01.2012, 08:00:53
Samotné vyhledávače žádné takové věci nezná a ani se o ní nezmiňují. Nicméně zkušenosti SEO specialistů říkají, že se něco takového děje. Vyhledávače totiž chtějí dávat svým uživatelům opravdu kvalitní výsledky, proto se snaží bojovat s praktikami, které podle nich nejsou férové. Stránky, které vyhledávač považuje za nekorektní, které podle něj získali větší popularitu podvodem, totiž penalizuje. Takové stránky pak dostanou tzv. ban a propadnou se do hlubin výsledků vyhledávání nebo se z databáze vyhledávače vytratí úplně.
Za duplicitu
Vyhledávače nemají rády duplicitní obsah. Proto je velice potřeba si dát pozor, jaký obsah na stránkách uveřejňujeme. Za duplicitní obsah můžeme dostat penalizaci náš web stejně tak jako ten, ze kterého jsme obsah okopírovali. Určitě bychom tedy neměli obsah kopírovat z ostatních webů. Nejlepší je mít originální obsah, která si budeme psát sami nebo jej pro nás bude psát nějaký copywriter. Zároveň je dobré si hlídat, zda někdo nekopíruje naše texty. Pokud by se tak stalo, pak je vhodné to nahlásit vyhledávači, aby penalizoval toho, kdo kopíruje a nedostali jsme penalizaci my.
Stejné odkazy
Toto nastane, pokud na naše stránky veden příliš mnoho stejných odkazů. Proto je velice vhodné budovat zpětné odkazy postupně, nikoliv jednorázově a skokově. Dále je pak dobré, aby každý odkaz obsahoval jiný text, resp. pozměněný text. Pokud odkazy kupujeme nebo měníme, pak by to neměl být problém.
03.12.2011, 08:08:55
Pro dobré pochopní SEO musíme znát architekturu vyhledávačů a jak takový vyhledávač funguje. Všechny vyhledávače obsahují tyto hlavní prvky:
Spider – program, který se tváří jako webový prohlížeč a umí stáhnout webové stránky.
Crawler – program, který automaticky sleduje všechny odkazy na každé webové stránce.
Indexer – program, který analyzuje webové stránky stažené Spiderem a Crawlerem.
Databáze – uložiště pro stažené a zpracované stránky.
Výsledky – výpis výsledků hledání z databáze.
Webový server – který je zodpovědný za interakci mezi uživatelem a vyhledávačem.
Konkrétní implementace vyhledávacích algoritmů se mohou lišit a také se liší. Například často funguje jako jeden celek Spider + Crawler + Indexer, který stáhne webové stránky, analyzuje je, zaindexuje je a pak toho využívá k nalezení nových zdrojů. Nicméně uvedené komponenty sou vlastní všem vyhledávačům a na principu SEO to nemá vliv.
Spider. Tento program ke stažení webových stránek funguje jako webový prohlížeč. Rozdíl je v tom, že prohlížeč zobrazuje informace uživatelům většinou v grafické podobě, zatímco Spider žádné vizuální zobrazení nemá, pracuje přímo s HTML kódem stránky.
Crawler. Tento program najde všechny odkazy na každé stránce. Úkolem je zjistit, kde jsou jaké odkazy a kam tyto odkazy vedou. Cílem programu je, aby našel nové odkazy a tím i nové dokumenty, které ještě nejsou pro vyhledávači známé.
Indexer. Program analyzuje jednotlivé stránky a potom taky analyzuje jednotlivé prvky stránek, jako je text, záhlaví, zápatí, struktura stránky, stylistické rysy, speciální HTML tagy apod.
Databáze. Jedná se o prostor pro ukládání dat, ať se jedná o stažené stránky nebo o analýzy těchto stránek. Někdy se databáze nazývá indexem vyhledávače.
Výsledky. Jsou výpisem výsledků vyhledávání na základě uživatelova dotazu a požadavku. Určuje se zde v jakém pořadí se výsledky zobrazí na stránce. To vše se prování na základě vnitřních algoritmů vyhledávače včetně hodnocení page ranku.
Webový server. Vyhledávač obvykle obsahuje HTML stránku s vstupním polem, kde si uživatel může zadat vyhledávací dotaz a webový server takový dotaz zpracuje a je zodpovědný za korektní zobrazení výsledků hledání uživateli ve formě HTML stránky.
02.12.2011, 08:08:52
V začátcích internetu bylo omezené množství dostupných informací. Přístup k internetu byl navíc značně omezen a byl dostupný převážně jen zaměstnancům různých univerzit a laboratoří. V té době tak problém vyhledávání informací nebyl nijak kritický, jak to je nyní.
První metody pro usnadnění přístupu byly adresáře a katalogy, které odkazovaly na informační zdroje v celém internetu. Odkazy byly tříděny podle druhu a témat. Tím jak takovéto katalogy rostly se v nich společnosti jako Yahoo pokoušeli začít vyhledávat, to byl rok 1994. Samozřejmě, že nešlo o vyhledávač v pravém slova smyslu, jak jej známe dnes. Protože hledání bylo omezenou pouze na ty zdroje, které byly ručně přidány to katalogu.
Projekt WebCrawler, který začal v roce 1994 byl prvním plnohodnotným vyhledávačem. Lycos a AltaVista se objevili v roce 1995 a po mnoho dalších let byla právě AltaVista významným hráčem v oblasti vyhledávačů.
V roce 1997 Sergey Brin a Larry Page založili Google jako výzkumný projekt na Standfordově univerzitě. Google v současnostni nejpopulárnější vyhledávač na světě.
Nyní existují tři přední světové vyhledávače – Google, Yahoo a Bing. Každý z nich má své vlastní databáze a vyhledávací algoritmy. Mnoho jiných vyhledávačů používají výsledky právě z těchto tří hlavních. Zkušenosti v oblasti SEO pak lze aplikovat defakto na všechny tři vyhledávače. Včetně českého Seznamu, kde jsou některé praktiky mírně odlišné, ale v principu lze SEO aplikovat úplně stejně.
01.12.2011, 08:00:11
Než se začneme zabývat optimalizací internetových stránek pro vyhledávače, musíme pochopit, jak vlastně pracuje vyhledávač jako například Google, Seznam, Atlas nebo Yahoo. Vyhledávač je pomůcka pro uživatele, aby si mohl vyhledat potřebné informace podle klíčových slov, které zadá při hledání. Hlavní cíl vyhledávajícího webu je ten, aby vydal uživateli co nejrelevantnější výsledky. Proto než internetové vyhledávače začnou vydávat výsledky, musí si uložit do svého archivu internetové stránky, které naleznou buď přímým přidáním webové stránky nebo z pomocí odkazů, které vedou na jiné webové prezentace. V každém vyhledávači se časem shromáždí milióny internetových stránek, mezi kterými musí vyhledávač vybrat ty nejbližší, které odpovídají zadávanému hledanému výrazu.
Pokud se chceme neustále dynamicky rozvíjet nejen na českém trhu, optimalizace pro vyhledávače SEO bude pro stránky nezbytná nutnost. Na základě optimalizace jsou prostudovány základní statistiky, provedeny analýzy klíčových slov a je vytvořena mapa webu. Kvalitní tvorba webových stránek by optimalizaci neměla opomíjet, protože vše závisí také na kvalitním obsahu, správně strukturovaném zdrojovém kódu a také na popiscích, nadpisech a titulcích.
Každý vyhledávač chce poskytovat kvalitní výsledky vyhledávání uživatele. Pouze uživatel, který na základě zadaných klíčových slov, dostal relevantní informace, bude vyhledávač používat pravidelně, což je pro vyhledávač velmi důležité. Autoři vyhledávačů se tak snaží rozpoznat kvalitní a nekvalitní webové stránky a odlišovat je. Mezi nekvalitní webové stránky patří takové stránky, které dosahují vysokých pozic nerelevantní metodou, aniž by nabízely jakoukoliv skutečnou hodnotu.
Dlouhodobou udržitelnou strategií pro úspěšnost webové stránky tedy je poskytovat hodnotné informace uživatelům. Staneme se tak pro vyhledávače kvalitní webovou stránkou, čímž si zvýšíme pozici a návštěvnost.