Obsah
- Co se přesně změnilo v dokumentaci
- Proč na tom záleží: rozdíl mezi stahováním a indexací
- Tiché selhání: proč vám Search Console nic neřekne
- Co se stane, když překročíte 2 MB
- Co to znamená pro JavaScript, CSS a strukturovaná data
- Koho se to reálně týká
- Jak zjistit, jestli máte problém
- Co s tím: praktické kroky
- Shrnutí
- Velký dík Spotibo za praktické testy
Google na začátku února 2026 potichu aktualizoval svou dokumentaci o crawlerech. Tam, kde roky stálo „15 MB“, se najednou objevilo „2 MB“. Titulky se okamžitě rozjely. SEO komunita zpanikařila. A jako obvykle – realita je někde mezi. Nejedná se o změnu algoritmu. Google nezačal jinak crawlovat. Jen konečně upřesnil, co jeho Googlebot pro vyhledávání ve skutečnosti dělá – a co dělal celou dobu. Pojďme si to rozebrat krok po kroku, ať víte, jestli máte důvod k obavám, nebo ne.
Za více než 20 let v SEO jsem viděl desítky podobných „panických vln“. Většina z nich byla planá. Tahle ale má jednu nepříjemnou vlastnost – pokud vás zasáhne, nikdo vám to neřekne. A to je důvod, proč jsem se rozhodl téma zpracovat podrobněji.
Co se přesně změnilo v dokumentaci
3. února 2026 Google reorganizoval dokumentaci svých crawlerů a zpřesnil limity pro stahování souborů. Místo jednoho obecného čísla teď rozlišuje tři různé limity:
- 15 MB – obecný limit infrastruktury. Platí pro všechny Google crawlery a fetchery (Google News, Shopping, Ads a další). Toto číslo existovalo v dokumentaci roky a nezměnilo se. Je to celkové maximum s výjimkou PDF.
- 2 MB – specifický limit pro Googlebot Search. Týká se HTML a dalších podporovaných textových formátů, které Googlebot zpracovává pro účely indexace do vyhledávání. Tedy zjednodušeně maximální velikost HTML dokumentu bez JS, CSS a dalších.
- 64 MB – speciální limit pro PDF soubory.
Přesná formulace v aktualizované dokumentaci Googlebotu zní:
„When crawling for Google Search, Googlebot crawls the first 2MB of a supported file type, and the first 64MB of a PDF file. From a rendering perspective, each resource referenced in the HTML (such as CSS and JavaScript) is fetched separately, and each resource fetch is bound by the same file size limit that applies to other files (except PDF files).“
Zásadní detail, který snadno přehlédnete: limit 2 MB se počítá z nekomprimovaných dat. Váš server může posílat krásně zazipovaný GZIP soubor o 500 KB, ale Googlebot počítá velikost po rozbalení. A druhý důležitý detail – každý zdroj se počítá zvlášť. HTML, CSS a JavaScript soubory mají každý svůj vlastní limit. Nesčítají se do jednoho balíku.
John Mueller na Bluesky celou situaci uvedl na pravou míru:
„None of these recently changed, we just wanted to document them in more detail.“
Google prostě přesunul informace o obecných limitech crawlerů na logičtější místo a přidal specifika pro Googlebot. Nic se nezměnilo, jen to konečně napsali na papír. Mueller navíc upřesnil, že limit 2 MB je specifický pro HTML a příbuzné formáty indexované pro webové vyhledávání – ostatní typy souborů (např. robots.txt) mají vlastní pravidla.
Proč na tom záleží: rozdíl mezi stahováním a indexací
Tohle je klíčové rozlišení, které spousta lidí nepochopila. Google má dva odlišné procesy:
- Stahování (fetching): Google dokáže stáhnout soubor až do 15 MB. To je limit infrastruktury – platí pro všechny Google crawlery, jak je popsáno v dokumentaci crawlerů. V tomto kroku Googlebot data prostě stáhne.
- Indexace (processing): Pro účely řazení ve vyhledávání Googlebot zpracuje a „přečte“ pouze první 2 MB HTML kódu. Zbytek zahodí.
Co se tedy stane, když vaše stránka překročí 2 MB? Googlebot obsah za touto hranicí prostě usekne. Technicky se tomu říká „truncation“ – tiché oříznutí. Obsah na začátku souboru bude zaindexován, konec bude ignorován. A teď pozor – tady přichází ta nepříjemná část.
Z vlastní zkušenosti s audity e-shopů vím, že stránky kategorií s velkým množstvím produktových dat v HTML se k hranici 1 MB dostanou snadněji, než byste čekali. U jednoho českého e-shopu s tisíci produktovými variantami inline v kódu jsme naměřili přes 1,8 MB nekomprimovaného HTML na hlavní kategorii. To je nebezpečně blízko.
Tiché selhání: proč vám Search Console nic neřekne
Slovenský tým Spotibo provedl praktické testy s HTML soubory různých velikostí a výsledky jsou výmluvné. Všechny testovací soubory jsou veřejně dostupné na spotibo.com/test-google-sources/.

Vytvořili 3MB testovací HTML soubor a odeslali ho k indexaci. Když v Google Search Console použili nástroj URL Inspection a spustili „live test“, zobrazil se kompletní zdrojový kód. Všech 23 825 řádků. Celé 3 MB bez problémů. Na první pohled to vypadalo, že žádný limit neexistuje.
Jenže to byl falešný pocit bezpečí. Nástroj URL Inspection totiž nepoužívá Googlebot pro vyhledávání. Používá crawler Google-InspectionTool, který pracuje s obecným limitem 15 MB. Proto vám ukáže celý kód – ale nemá to nic společného s tím, jak Googlebot skutečně indexuje vaši stránku.
Když se podívali na skutečný zaindexovaný zdrojový kód, realita byla jiná. Kód se uřízl kolem řádku 15 210 – uprostřed slova. Text doslova končil „Prevention is b“ a pak následoval uzavírací tag. Vše za hranicí 2 MB bylo potichu zahozeno.
A nejhorší na tom? GSC hlásilo „URL is on Google“ a „Page is indexed“. Zelená fajfka. Žádné varování. Žádná chyba. Žádná indikace, že chybí polovina obsahu.
U 16MB testovacího souboru Google odmítl zpracovat požadavek úplně. GSC vrátilo chybu „Oops! Something went wrong“ a všechna data crawlu zobrazovalo jako N/A.
Co se stane, když překročíte 2 MB
Pojďme si to shrnout konkrétně, protože kolem toho koluje spousta nepřesností.
- Stránka nebude deindexována. Pokud již zaindexovaná stránka překročí limit, Google ji z vyhledávání neodstraní. Místo toho dojde k oříznutí – Google zaindexuje jen to, co se vejde do 2 MB.
- Stavový kód bude 200 OK. Server vrátí standardní odpověď, žádný chybový kód. Googlebot začne stahovat a po dosažení limitu spojení uzavře. Z pohledu serveru proběhlo vše v pořádku.
- GSC neukáže žádné varování. Stránka bude hlášena jako indexovaná. Žádná chyba, žádné upozornění na oříznutí. Jediným vodítkem v server access logu může být velikost přenesených dat odpovídající přibližně 2 MB místo plné velikosti souboru.
- Obsah nahoře zůstane. Hlavička, navigace, začátek článku – to vše bude pravděpodobně zaindexováno. Co zmizí, je obsah na konci HTML kódu: patička, strukturovaná data umístěná před
</body>, interní odkazy v patičce. - Jediný způsob, jak to odhalit v GSC: Podívat se na „Zobrazení procházené stránky“ (View crawled page) v HTML náhledu a ručně zkontrolovat, zda kód nekončí uprostřed věty nebo zda nechybí uzavírací
</body>tag.
Co to znamená pro JavaScript, CSS a strukturovaná data
Limit 2 MB se vztahuje na každý zdroj zvlášť. To má důsledky:
JavaScript: Pokud je hlavní JS bundle větší než 2 MB po rozbalení, skript může být useknut uprostřed vykonávání. Stránka přestane fungovat, obsah závislý na JS se nevyrenderuje, interaktivní prvky se nenačtou. Testy Spotibo potvrdily, že GSC u CSS a JS souborů nad 15 MB nehlásilo žádné chyby – stejné tiché chování jako u HTML.
CSS: Oříznutý CSS soubor znamená vizuálně rozbitou stránku. Google to může vyhodnotit jako špatnou uživatelskou zkušenost.
Strukturovaná data (Schema.org): Tohle je reálný problém pro řadu webů. Mnoho implementací vkládá JSON-LD strukturovaná data až na konec HTML kódu, před uzavírací tag </body>. Pokud vaše stránka přesáhne 2 MB, Google tato data neuvidí. Přijdete o rich snippets – hvězdičky, ceny produktů, drobečkovou navigaci ve výsledcích vyhledávání. Google nenajde validní uzavřený JSON blok. Z praxe vím, že tohle je riziko zejména u e-shopů s rozsáhlým produktovým markupem – kombinace Product, Offer, AggregateRating a BreadcrumbList na stránce s desítkami produktů může zabírat překvapivě hodně místa.
O obrázky se nebojte. Testy Spotibo potvrdily, že obrázky mají zcela oddělený limit. Testovací obrázek o 2,5 MB se bez problémů zobrazil v Google Image Search během dvou dnů. Obrázky zpracovává Googlebot Image, který má vlastní pravidla.
Koho se to reálně týká
Pojďme si upřímně říct: většina webů nemá sebemenší důvod k obavám. Podle dat Web Almanac 2025 je medián velikosti HTML stránky na mobilu přibližně 33 KB. Na 90. percentilu se bavíme o 151 KB. Aby vaše stránka narazila na limit 2 MB, musela by být zhruba 60 až 90krát větší než průměr.
John Mueller tato čísla potvrdil na Redditu:
„The median on mobile is at 33kb, the 90-percentile is at 151kb. This means 90% of the pages out there have less than 151kb HTML.“
A dodal konkrétní radu:
„If you’re working with Warren Peas making web pages, make sure to have important stuff — that you think people will want to find — in a reasonable place, and not only on the bottom. Nobody’s going to read 1000 pages of text (equivalent of 2mb) in search of something that’s on page 1001.“
Kdo by ale měl zpozornět:
- E-shopy s velkým množstvím inline dat. Pokud vkládáte JSON data produktů, jejich varianty a parametry přímo do HTML kódu, velikost stránky může rychle narůst. Stránka kategorie se stovkami produktů a jejich kompletními daty v HTML je kandidát na problém.
- Weby s „nafouklým“ kódem. Obrovské inline SVG obrázky, Data URI (obrázky zakódované v Base64 přímo v HTML), neoptimalizované CSS frameworky vložené přímo do stránky.
- Single Page Applications. Velké JavaScript bundly, které se musí renderovat, mohou při špatné architektuře snadno narazit na limit.
Jak zjistit, jestli máte problém
Jediný spolehlivý způsob, jak zjistit, jestli vás limit zasahuje, je ruční kontrola. Na nástroje Google Search Console se v tomto případě spolehnout nemůžete.
Chrome DevTools: Záložka Network, sloupec „Resource Size“ (ne „Transfer Size“ – ten ukazuje komprimovanou velikost). Hledáte nekomprimovanou velikost HTML odpovědi.
Screaming Frog: Vyfiltrujte stránky podle velikosti HTML. Cokoliv nad 1 MB si zaslouží pozornost. U svých auditů tohle dělám standardně – je to otázka jednoho filtru a dvou minut.
View crawled page v GSC: V nástroji URL Inspection se podívejte na „Zobrazení procházené stránky“ v HTML náhledu. Ručně zkontrolujte, jestli kód nekončí uprostřed věty nebo jestli nechybí uzavírací </body> tag. Toto je jediný relevantní pohled v GSC – nikoliv „live test“.
Tame the Bots: Dave Smart vytvořil nástroj, který umí simulovat 2MB limit a ukáže vám přesně, kde na stránce dojde k oříznutí. John Mueller ho sám doporučil na Bluesky.

Co s tím: praktické kroky
Pokud se blížíte limitu nebo ho překračujete, tady je návod:
- Přesuňte skripty a styly do externích souborů. Přesuňte inline CSS a JavaScript do samostatných externích souborů. Každý soubor má svůj vlastní limit 2 MB. Tímto jednoduchým krokem dramaticky zmenšíte HTML.
- Zbavte se Data URI. Nepoužívejte obrázky zakódované v Base64 přímo v HTML. Odkazujte na ně externě jako normální soubory.
- Důležitý obsah dejte nahoru. Klíčová metadata, titulky, hlavní text, strukturovaná data – vše, co potřebujete mít zaindexované, by mělo být v kódu co nejvýše. Pokud máte JSON-LD na konci stránky a vaše HTML je velké, přesuňte ho do
<head>.
Shrnutí
Pro drtivou většinu webů se nic nemění. Medián HTML stránky je 33 KB – to je asi jako porovnávat panelák s mrakodrapem. Ale pokud provozujete e-shop nebo web s velkým množstvím inline dat, stojí za to si velikost HTML ověřit. Hlavně proto, že tiché oříznutí je skutečně tiché:
- Stavový kód bude 200 OK.
- Google Search Console bude hlásit, že je vše v pořádku.
- Nástroj URL Inspection vám ukáže celý kód (protože používá jiný limit).
- A vy přijdete o obsah, strukturovaná data nebo důležité odkazy – bez jakéhokoliv varování.
Zkontrolujte si velikost HTML svých klíčových stránek. Pokud jste pod 1 MB, máte klid. Pokud se blížíte k 2 MB, je čas na úklid kódu. A pokud překračujete 15 MB – máte úplně jiný problém.
Velký dík Spotibo za praktické testy
Celý tento článek by neměl takovou váhu bez praktických testů, které provedl Janko Januška a jeho tým ve Spotibo. Janka znám ještě z dob společného působení v H1.cz a vždycky patřil k lidem, kteří nespoléhají jen na dokumentaci – prostě si to otestují. A přesně to udělali.
Jejich kompletní test s reálnými soubory různých velikostí je nejlepší praktický důkaz toho, jak se 2MB limit chová v praxi. Potvrdili tiché oříznutí HTML, ukázali zavádějící chování URL Inspection toolu a ověřili, že obrázky mají oddělený limit. Všechny testovací soubory jsou veřejně dostupné na spotibo.com/test-google-sources/, takže si můžete ověřit vše sami.
Pokud chcete téma pochopit nejen z dokumentace, ale z reálného chování Googlebotu, je to povinné čtení.
Konzultace
Co získáte? Pokud si nevíte rady s nabídkou služeb anebo máte konkrétní problém, rád vám pomůžu individuální konzultací. Jsem maximálně flexibilní v řešení vašich problémů, ať je to problém v indexaci, odstranění manuální nebo algoritmické penalizace, strategie pro pokles návštěvnosti v jednom z vyhledávačů, online reputation management, nebo cokoliv…
Zdroje:
- Google Search Central: Clarified information about the default file size limits for Googlebot (3. 2. 2026)
- Google: Googlebot documentation – file size limits
- Google: Overview of Google crawlers – default file size limits
- Spotibo: We Tested Google’s New 2MB Crawl Limit (9. 2. 2026)
- Search Engine Roundtable: Googlebot File Limit Is 15MB, 2MB & 64MB For PDF (4. 2. 2026)
- Search Engine Land: Google lists Googlebot file limits for crawling (4. 2. 2026)
- John Mueller na Bluesky – vyjádření k limitům
- John Mueller na Redditu – data z Web Almanac a praktické rady
- Web Almanac 2025: Page Weight