Máte problém dostat své weby do vyhledávače nebo máte zaindexováno jenom pár stránek? Vygenerujte si sitemapu.

Je tomu už skoro měsíc, kdy jsem kompletně měnil strukturu URL adres tohoto blogu. Hodně jsem se toho bál, protože to může znamenat fatální následky pro přísun lidí ze strany vyhledávačů. 70% Návštěvníků tohoto webu totiž přichází právě z vyhledávačů.

Všechny staré linky jsem za pomoci .htaccess přesměroval na nové - s hláškou 301, takže jsem rozhodně nic nenechával náhodě. Přesto se ještě na mnohých místech, jak u Seznamu tak u Google, objevují ve výsledcích vyhledávání staré linky. Rozhodl jsem se tedy udělat věc, kterou jsem měl v plánu už delší dobu, a teď se to hodí - zavést sitemap.xml.

Google je podporuje už od nepaměti (alespoň já jejich zavedení nepamatuju) a i Seznam je už nějakej ten pátek využívá. Tak tedy milí roboti: pochutnejte si na mé sitemapě a ať jsou ty staré škaredé linky pryč.

Co je to sitemap.xml?

Jak je vidět dle koncovky, jedná se o XML soubor. Specifikaci naleznete např. zde: http://www.sitemaps.org/protocol.php a jeho struktura vypadá takhle:


<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">

  <url>
   <loc>http://www.example.com/</loc>
   <lastmod>2005-01-01</lastmod>
    <changefreq>monthly</changefreq>
    <priority>0.8</priority>
  </url>

</urlset>

Tento soubor obsahuje souhrn všech stránek, které chce webmaster indexovat ve vyhledávači (tedy nejčastěji souhrn všech stránek webu).

K čemu je sitemap.xml dobrý?

  • Máte možnost vyhledávačům nabídnout kompletní seznam jednotlivých stránek vašeho webu a máte tak větší šanci, že budou zaindexovány všechny.

  • Máte možnost vyhledávačům sdělit, jak často je (bude) určitá stránka aktualizována => jak často má robot stránku znovu analyzovat.

  • Máte možnost vyhledávačům sdělit, které stránky jsou podle vás více důležité než jiné (v rámci vašeho webu samozřejmě).

  • Ušetříte vyhledávačům práci a při nastavení aktualizačních informací taky nějaký ten runtime.

Jak vytvořit sitemap.xml?

To záleží na tom, pro jaký web jí chcete vytvořit. U dynamických webů s různými typy stránek to sice může zabrat hodně času, ale sitemap.xml rozhodně není nějaká zbytečná fičurka do počtu …

Statický web.

Máte-li statický, menší web, kde se stránky negenerují dynamicky a rozšiřování webu se koná spíše sporadicky - manuální tvorbou nových HTML souborů - zvažte jestli má cenu vůbec sitemapu vytvářet. Využijte parametru site: u nejdůležitějších vyhledávačů (příklad pro Seznam, příklad pro Google), a jestli jsou všechny stránky vašeho webu zaindexovány, nechte to plavat.

Jestli tomu tak není, vytvořte si prostě sitemap.xml manuálně. Tedy stačí otevřít poznámkový blog, vložit do něj strukturu viz výše, seznámit se trošku s pravidly a výsledný soubor uložit jako sitemap.xml. Nic na tom není.

Web generovaný některým ze známých redakčních systémů.

Jestli je to váš případ, pak už nejspíš sitemapu máte. Pokud ne, stačí se podívat po nějakém plug-inu.

Řešení pro amatéry a to i pro větší weby.

Pokud chcete mít s sitemap.xml co nejméně práce, využijte nějakého automatického generátoru. Existují i moc pěkné online generátory, kam prostě jen dáte odkaz rootu webu a je to. Toto řešení má samozřejmě svá velká úskalí a nevím, jestli má vůbec nějaké uplatnění. 1) Sitemapa nebude aktuální (pokud ji nebudete ručně po každé aktualizaci generovat znovu), což je dost podstatná náležitost, jakou by sitemap.xml měl mít. 2)Vygenerování mapy pro rozsáhlejší web je dost zdlouhavý proces. Můj blog o cca 200 stránkách se generoval půl hodiny. 3)Připravíte se o možnost „individuálního" nastavení priorit a aktualizačních informací o jednotlivých stránkách => budou všude stejné => nebude na ně brán ohled. 4) Generátor jede po odkazech, takže bude samotná sitemapa dost chaotická. To sice nevadí, pokud jí máte připravenou pouze pro roboty, jinak to ale problém je.

Napište si to sami. :)

To je můj případ, ale samotné generování samozřejmě není nic těžkého. Jde jenom o vytvoření textového souboru a následné strukturované vysypání databáze do něj. Problém je někde jinde. Musíte totiž vymyslet algoritmus pro generování smysluplných aktualizačních informací a priorit. Např. aktualizace jednotlivých článků jsem já nastavil takto: U prvních deset článků, u kterých bývají často nové komentáře, jsem nastavil denní aktualizaci. Dále u rok starých článků týdenní, u dva roky starých měsíční a dále už jen roční.

Problémy nastávají, když máte různé druhy webů (např. já mam články a bleskovky). Pak se to všechno ještě komplikuje, ale už si musí každý pořešit individuálně.

U dynamického řešení je pak ještě třeba implementovat generátor do administrace, aby jste se už sitemapou nemuseli zabývat po aktualizacích. Voalá: články se objevují v indexech vyhledávačů pekelně rychle a bez práce.

Jak dát vyhledávačům vědět o sitemap.xml?

Mnohdy si vyhledávače hledají sitemap.xml sami (a majitelé serverů z těch 404ek šílí). Přesto jsou jisté způsoby, jak vyhledávačům o své sitemapě říci.

GWT-sitemap.JPG
Úspěšně přidaná mapa v Google Webmaster Tools.
  • Do souboru robots.txt přidáte direktivu: Sitemap: absolutní_link_na_sitemapu (viz. zde).

  • Pro Google ji přidejte v Google Webmaster Tools, kde můžete svoji sitemapu i analyzovat.

  • Pokud sitemapu generujete dynamicky po napsání článku apod., doporučuji implementovat také ping na sitemapu. Není nic jednoduššího než využít fci fopen() (PHP) na soubor http://www.google.com/webmasters/sitemaps/ping?sitemap=zde_je_odkaz_na_vasi_sitemapu Tím Googlu řeknete, že pro něj máte informace, na kterých Googlebot zkrátka ulítává. (Seznam možnost pingu na sitemapu bohužel nemá.)

Má sitemap.xml smysl jenom pro vyhledávače nebo se dá využít i jinde?

Určitě dá, a pravděpodobně se k tomuto využití v budoucnu ještě dostanu. Pokud si k mapě napíšete CSS styl nebo raději XSLT transformační styl, můžete z tohoto souboru rázem udělat užitečnou věc i pro vaše návštěvníky. Příkladem nechť je tato sitemapa, kde můžete odkazy webu řadit dle priority atd. (nefunguje v Opeře).

6 komentářů

Neváhejte napsat k článku komentář

Nevyplňujte:

  1. 1
    majky1

    hodne mi to pomohlo

  2. 2
    Homer

    Používám Google Sitemaps Offline Generator. Pro menší statické weby je dostačující. Pracuje o mnoho rychleji než Online generátory.Ke stažení na www.slosar.sk.

  3. 3
    Dominik

    dominator92<zavináč>emailtečkacz

    No síce větší SEO mi to nepřidalo ale určitě se to hodí jinč použivám php fusion

  4. 4
    karel

    toptopgear<zavináč>gmailtečkacom

    diky moc

  5. 5
    Petra

    stawebnice<zavináč>gmailtečkacom

    Já používám pro tvorbu dynamického sitemapu rozšíření pro Joomla! XMAP, které je zdarma.
    Více info o něm je v tomto článku: http://www.stawebnice.com/s...emap-xml

  6. 6
    slavajs

    slavajs.s<zavináč>seznamtečkacz

    Zdravím odborníky. Poprosil bych o radu. Mám 1 měsíc starý web. Google robot bez problémů. Indexuje i čtyřikrat za den ale seznambot je problém, za měsíc jsem homěl na stránkách pouze 3x. Zaindexoval pouze 30 stránek. Pomůže prosím do seznamu vložení sitemap? Děkuji za odpověď.