Jak na bezproblémovou indexaci google 2

Sdílení informací je základ internetu 🙂 Share on FacebookTweet about this on TwitterShare on Google+Share on LinkedIn

Poslední článek byl trochu dlouhý, tak jsem jej rozdělil na dva díly. Takže pokračujeme dál.

Technické pokyny

Projděte své stránky pomocí textového prohlížeče, jakým je například Lynx, protože většina vyhledávačů vidí vaše stránky podobně jako Lynx. Pokud vám v zobrazení celého webu v textovém prohlížeči brání ozdobné funkce jako JavaScript, soubory cookie, ID relace, rámce, DHTML nebo Flash, budou mít prohledávače vyhledávačů s procházením pravděpodobně problémy.

Dávejte si hlavně pozor na ten flash. Sice je to občas pastva pro oko, ale teror pro vyhledávač. S javascriptem to také nepřehánějte. Většina vyhledávačů sice dokáže javascript v pohodě zpracovat (seznam tvrdí že to neumí vůbec), ale je lepší se držet opravdu základu. Odkazy do javascriptu prostě nepatří. Listování stránek pomocí koláčků snad nikdo nedělá. Iframe vede jek ztrátě linkjuice a DHTML dokáže dobře blbnout když se to neumí. Člověk by nakonec řekl, že v druhém desetiletí 21. století bude nakonec ideální jen to HTML 🙂

Umožněte prohledávačům procházet vaše stránky bez ID relace nebo argumentů, které by sledovaly jejich cestu stránkami. Tyto postupy sice pomáhají sledovat chování jednotlivých uživatelů, avšak metoda přístupu prohledávačů je zcela odlišná. Použití těchto technik může vést k neúplnému indexování stránek, protože roboti nemusí být schopni odstranit adresy URL, které vypadají jinak, avšak ve skutečnosti odkazují na stejnou stránku.

Tohle se hlavně týká generování obsahu na základě chování uživatelů. Pokud se nějaký krok přeskočí tak, aby nevyskákalo v indexu hafo chyb a místo potenciálních zákazníků nechodili na stránku s chybovou hláškou programátoři, kteří mají stejnou chybu. I když způsob jak nalákat programátory je to dobrý 🙂

Ujistěte se, že váš webový server podporuje záhlaví http If-Modified-Since. Tato funkce umožňuje webovému serveru informovat systém Google o tom, zda od posledního procházení stránek došlo ke změně jejich obsahu. Podpora této funkce šetří šířku pásma a režijní náklady.

A hlavně se dá dobře zneužívat. Pamatuju si jak jsem pro někoho dělal skript, který měl upravovat atributy souboru, tak aby vykazoval hodnoty, že byl právě upravený. Ovšem za tuhle praktiku následovala penalizace.

Využívejte na webovém serveru soubor robots.txt. Tento soubor informuje prohledávače o tom, které adresáře lze či nelze procházet. Abyste omylem nezablokovali přístup prohledávači Googlebot, musí být tento soubor aktuální. Informace o tom, jak instruovat roboty, kteří navštíví vaše stránky, naleznete na adrese http://www.robotstxt.org/faq.html. Chcete-li se přesvědčit, zda soubor robots.txt používáte správně, můžete jej otestovat pomocí nástroje pro analýzu souboru robots.txt, který je součástí Nástrojů pro webmastery Google.

Na robots.txt pozor. Už jsem na webtrhu řešili problém s neindexováním obsahu, protože tazatel špatně pochopil jak se má používat. Dále je třeba si uvědomit, že pokud zakážete indexovat vyhledávačům svůj obsah tak si jej někdo může zkopírovat a dát na své stránky jako originál.

Pokud si vaše společnost zakoupí systém pro správu obsahu, zkontrolujte, zda systém vytváří stránky a odkazy, které mohou vyhledávače procházet.

Některé CMS systémy to občas s nofollow opravdu přeháněli.

Abyste zabránili prohledávačům v přístupu na stránky výsledků vyhledávání nebo automaticky generované stránky, které nepřidávají uživatelům vyhledávačů hodnotu, použijte soubor robots.txt.

Je sice fajn říct google ať neindexuje stránky, kde se přihlašuje admin, anebo kde jsou adresáře s obrázky, ale také tím případnému hackerovi usnadníte práci. Kritické stránky můžete ochránit před indexací i pomocí meta tagu přímo na té stránce.

Vyzkoušejte, zda se stránky správně zobrazují v různých prohlížečích.
Takže kromě boje FF vs IE, který není až tak podstatný jde o to, že ne všichni používají Windows (problémem se tak mohou stát například fonty). Pro web by se měli používat bezpečné barvy, protože u generovaných barev se prý mohou lišit odstíny například PC vs MAC. Dále je fajn projít si různé náhledy třeba pro mobilní telefony. Hlavně odborné blogy mohou velice často navštěvovat lidé využívající smartphone. Dávejte pozor i na rozlišení. Jsou lidé kteří stále jedou na 800×600 ale také lidé, kteří používají 1680×1020. Tak aby z vašeho webu nebyl jen malý obdélníček. Také doporučuju vyzkoušet co se stane s webem když si budete zoomovat obraz.

Sledujte výkon svých stránek a optimalizujte dobu načítání. Cílem Googlu je poskytnout uživatelům nejrelevantnější výsledky vyhledávání a skvělý uživatelský dojem. Rychlé weby jsou pro uživatele příjemnější a zvyšují kvalitu celé sítě World Wide Web (především pro uživatele s pomalým internetovým připojením). Věříme, že pokud webmasteři zlepší své weby, zvýší se i celková rychlost sítě World Wide Web.

Tohle je velice důležité. Nejen já mám osobní zkušenost, že přechod z pomalého webhostingu na rychlý vedlo k lepším pozicím na google.

Pokyny týkající se kvality – základní principy

Vytvářejte stránky především pro uživatele, nikoli pro vyhledávače. Neklamte uživatele a neprezentujte odlišný obsah vyhledávačům a uživatelům. Tato technika se obecně nazývá ,,maskování“.

Za maskování je penalizace jak od seznamu (po nahlášení) tak od google (automaticky). Mezi oblíbené praktiky platí hlavně používání dvou podobných barev, které lidské oko nerozezná. Překrývání textu pomocí javascriptu. Posouvání textu mimo obrazovku. Všechny tyto praktiky patří mezi black hat SEO a vedou k dlouhodobé penalizaci, která u google může trvat až dva roky.

Nepoužívejte triky s cílem zlepšit hodnocení ve vyhledávačích. Obvykle je dobré zamyslet se, zda by vám nevadilo, kdyby se o vašem jednání dozvěděli správci konkurenčního webu. Další užitečnou pomůckou je položit si následující otázky: ,,Pomáhá to mým uživatelům? Dělal(a) bych to, kdyby neexistovaly vyhledávače?“

Ano je důležité si uvědomit, že konkurence nikdy nespí a google získává stále silnější postavení na trhu. Takže „bonzování“ podvodů bude stále častější nejen na seznamu ale i google. Ona penalizace konkurence je často rychlejší než její složité předhánění, tak zbytečně neudělejte chybu.

Neúčastněte se manipulací s odkazy, které slouží ke zvýšení hodnocení vašich webových stránek či hodnocení PageRank. Konkrétně se vyhněte odkazům na internetové původce spamu, takzvané ,,špatné sousedy“, protože takovéto odkazy mohou snížit vaše vlastní hodnocení.

Tohle je sice klasika, ale stojí za to upozornit znovu na jedenu věc. Špatný soused není jen adult a warez, ale všechny weby, které nespadají do kategorie family friendly. Tzn. odkazovat na stránky kde někdo popisuje svoji oslavu narozenin i za přítomnosti alkoholu je pro google špatné. Co je family friendly najdete na wikipedii.

Nepoužívejte nepovolené počítačové programy pro odesílání stránek, kontrolu hodnocení atd. Takové programy spotřebovávají výpočetní výkon a jsou v rozporu s našimi Smluvními podmínkami. Společnost Google nedoporučuje používat produkty typu Web***** ***d které odesílají automatizované nebo naprogramované dotazy na Google.

Black hat seo udělalo pořádný pokrok a vyhledávače s ním těžko drží krok. Určitě si pamatujete například na seznam, kterému stačilo naprat jeden den stovky stejných dotazů a druhý den už našeptávač pracoval pro vás. Podobné techniky jsou tvrdě penalizovány ze strany google. Začíná to pádem GPR a končí až banem na 2 roky.


Jak bude reklama vypadat?
-
Nechceš zde reklamu napořád jen za 59 Kč?
Zobrazit formulář pro nákup
Sdílení informací je základ internetu 🙂 Share on FacebookTweet about this on TwitterShare on Google+Share on LinkedIn

7 komentářů: „Jak na bezproblémovou indexaci google 2

  • 31.05.2010 (06:53)
    Permalink

    Mám zkušenost že Google se při indexaci hodně řídí tím, kolik na web wede zpětných odkazů. Dám příklad:

    Web 1:
    Nový web, přidám ho do webmaster tools, vygenruji site map kterou pošlu Googlu, přidám web do všech vyhledávačů typu Seznam, Google, Yahoo, Bing atd. a čekám. Týden nebo čtrnáct dní se nic neděje a pak se web pomalu začne být indexovaný

    Web 2:
    Nový web, opět přidám do webmaster tools a vyhledávačů, ale navíc si seženu nějaký dobrý zpětný odkaz. V nejhorším případě stačí i linkuj.cz nebo jiná linkovací služba (i když tam už je efekt o dost slabší). Pokud je zpětný odkaz z nějakého kvalitního webu který Google pravidelně indexuje, tak se první stránka mého nového webu objeví v Goolu i do hodiny, nejpozději do 24 hodin, následují poměrně rychle i ostatní stránky.

    Tj. pokud má někdo problém s indexací od googlu tak první věc je podívat se jestli na web vůbec vedou nějaké zpětné odkazy 🙂

    Reagovat
  • 31.05.2010 (09:09)
    Permalink

    S „If-Modified-Since“ jsem si kdysi taky dost hrál, ale žádný efekt jsem nepozoroval. Bot si stejně chodil, jak sám uznal za vhodné.

    Reagovat
  • 31.05.2010 (19:06)
    Permalink

    Teď bych spíš potřeboval bezproblémovou indexaci Seznamem, který je poněkud líný a ani odkazy moc nepomáhají. 14 dní se skoro nic neděje, zaindexované 2 stránky a Google už má celý shop v indexu. Respektive potřebuju přeindexovat, už tam nějaký web byl.

    Reagovat
  • 04.06.2010 (09:55)
    Permalink

    Doufám že brzy vyjde i podobný hezný návod pro seznam. Poslední dobou si všímám, že mizí některým webům ve vyhledávání hlavní index webu a vůbec netuším proč. Jak sem sledoval na i webtrhu tak nejsem sám komu se tak děje.

    Reagovat
  • 26.05.2011 (21:47)
    Permalink

    Inak v Čechách je situácia špecifická. Skoro všade má google skoro monopol na vyhľadávanie. U vás sa seznam celkom dobre drží.

    Reagovat

Napsat komentář

Vaše emailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *