Strávil jsem tři týdny analýzou logů Googlebot na projektu, kde kvalitní obsah prostě nerankovalo. Crawl budget byl v pořádku. Sitemap čistá. A přesto.
Problém byl v JavaScriptu. Specificky v tom, že Googlebot renderuje JavaScript s výrazným zpožděním — řádově dny až týdny po prvním crawlu.
Co z toho plyne prakticky- Kritický obsah musí být v HTML, ne v JS — pokud vaše produktové popisy, nadpisy nebo strukturovaná data existují jen po spuštění JS, Google je nevidí při prvním průchodu.
- Zkontrolujte Google Search Console URL Inspection — záložka "Více informací" ukáže co Googlebot skutečně vidí. Porovnejte s tím co vidíte vy v prohlížeči.
- Lazy loading obrázků s atributem loading="lazy" — správně implementováno je OK. Problém nastává když lazy loadujete obsah textu nebo strukturovaná data.
- Dynamicky generované interní odkazy — pokud jsou menu nebo breadcrumbs renderovány JavaScriptem, Googlebot je nemusí sledovat konzistentně.
Na zmíněném projektu jsme přesunuli klíčový obsah na server-side rendering pomocí Next.js hydratace. Za 5 týdnů se indexovaných stránek zvýšil počet o 40 % a viditelnost v mobilních výsledcích vzrostla měřitelně.
Není to složitý problém. Je to jen problém který se špatně diagnostikuje bez přístupu k logům.
Červen 2025
Našli jste chybu? Pomůžete nám udržet obsah přesný a aktuální.