V digitálním světě, kde umělá inteligence hraje stále významnější roli v tom, jak jsou informace objevovány a zpracovávány, se soubor llms.txt stal nepostradatelným nástrojem pro komunikaci obsahu webu směrem k AI systémům. Přestože jeho reálné využití crawlery velkých AI firem je stále předmětem diskusí, jeho strategické nasazení, často ve spojení se souborem llms-full.txt, nabízí bezprecedentní možnosti pro optimalizaci obsahu pro generativní modely. Udržování obou formátů – stručného navigačního llms.txt i kompletního llms-full.txt – je strategicky výhodné, protože každý slouží jinému účelu a je optimalizován pro různé typy AI agentů a scénáře použití.
Dvouvrstvá architektura llms.txt a llms-full.txt
Specifikace llms.txt, navržená Jeremym Howardem z Answer.AI v září 2024, formálně definuje pouze hlavní soubor llms.txt jako kurátorský navigační index ve formátu Markdown. Jeho účelem je poskytnout AI modelům rychlý přehled o nejdůležitějším obsahu webu a nasměrovat je k relevantním informacím. Soubor llms-full.txt se vyvinul paralelně díky spolupráci společností Mintlify a Anthropic, které potřebovaly způsob, jak efektivně předat celou dokumentaci AI modelům bez složitého parsování HTML. Dnes je de facto standardní součástí ekosystému, ačkoliv není formálně součástí původní specifikace.
Tyto dva soubory obsluhují dva odlišné scénáře. llms.txt funguje jako „mapa k pokladu“ – stručný přehled s kurátorsky vybranými odkazy a popisy, který AI asistenti v reálném čase, jako jsou Claude, ChatGPT při prohlížení webu nebo Perplexity při vyhledávání, mohou rychle zpracovat. Na základě těchto informací se pak AI může rozhodnout, kam na webu dále navigovat pro detailnější informace. Naproti tomu llms-full.txt slouží jako „celý poklad najednou“ – kompletní obsah v jednom souboru, ideální pro systémy pro příjem dat (ingestion pipeline), systémy RAG (Retrieval-Augmented Generation) a kódovací asistenty, jako je Cursor nebo GitHub Copilot, které potřebují kompletní a hluboký kontext pro svou činnost. Tato synergie zajišťuje, že informace jsou dostupné v optimální formě pro různé AI úlohy.
Ideální velikost v tokenech
Pro optimální zpracování by hlavní llms.txt měl zůstat pod hranicí 10 000 tokenů (což odpovídá přibližně 7 500 – 9 000 slov nebo asi 15 normostran). Některé zdroje dokonce doporučují držet se hranice 2 000 tokenů pro zajištění nejrychlejšího a nejefektivnějšího zpracování. Pro llms-full.txt je situace podstatně volnější, jelikož je určen pro objemnější data. Například Anthropic provozuje svůj soubor o rozsahu téměř 500 000 tokenů, Vercel přibližně 500 000 tokenů a Cloudflare v agregátu dokonce 3,7 milionu tokenů. Obecně platí, že soubor o velikosti do 100 KB (přibližně 33 000 tokenů) by měl být zpracován bez problémů všemi aktuálními modely.
Je však zásadní rozlišovat mezi nominální kapacitou kontextového okna a prakticky využitelným prostorem. Existuje dobře zdokumentovaný efekt „ztráty uprostřed“ (lost in the middle), kdy modely přikládají vyšší váhu informacím umístěným na začátku a konci textu, zatímco ty uprostřed mohou být přehlíženy. Proto je klíčové umístit nejdůležitější informace – například hlavní produktové kategorie, unikátní hodnotovou propozici e-shopu nebo klíčové stránky – na začátek souboru llms.txt, aby se maximalizovala pravděpodobnost jejich zohlednění AI modelem.
Segmentace llms-full.txt pro e-shop s tisíci produkty
Pro e-shop s tisíci produkty je monolitický llms-full.txt obsahující veškerý obsah nejen nepraktický, ale pravděpodobně i kontraproduktivní kvůli omezením kontextového okna a efektu „ztráty uprostřed“. Segmentace do více tematických souborů je v takovém případě nejen možná, ale představuje osvědčenou praxi, kterou implementují některé z nejsofistikovanějších technologických firem.
Vynikajícím příkladem je Cloudflare, který provozuje jeden globální llms.txt jako centrální rozcestník a k němu desítky produktově specifických souborů llms-full.txt na subpath adresách – například /workers/llms-full.txt, /ai-gateway/llms-full.txt nebo /agents/llms-full.txt. Tento přístup umožňuje AI agentům stáhnout pouze dokumentaci relevantní pro jejich konkrétní dotaz, aniž by museli zpracovávat celý korpus o milionech tokenů, což výrazně zvyšuje efektivitu a snižuje náklady na zpracování. Specifikace tento přístup explicitně umožňuje, když uvádí, že llms.txt může být umístěn nejen v kořenovém adresáři, ale volitelně i v podsložkách, což poskytuje značnou flexibilitu pro rozsáhlé webové struktury.
Doporučená architektura pro e-shop
Pro e-shop s tisíci produkty by optimální architektura mohla vypadat následovně: v kořenovém adresáři se nachází hlavní llms.txt, obsahující stručný popis e-shopu, jeho zaměření a unikátní vlastnosti. Dále by měl odkazovat na kategoriové soubory a na klíčové stránky, jako jsou nákupní průvodce, FAQ, obchodní podmínky a stránku o firmě. Každá produktová kategorie by pak měla vlastní llms-full.txt na odpovídající subpath (např. /elektronika/llms-full.txt, /obleceni/llms-full.txt), obsahující detailní informace o produktech v dané kategorii.
Pro e-commerce existují i specializované open-source projekty, které mohou tento proces usnadnit. Projekt site-llms například rozšiřuje koncept llms.txt o soubor site-llms.xml – v podstatě XML sitemapu odkazující na individuální llms.txt soubory pro jednotlivé produkty, navržené specificky pro obchody s tisíci až miliony produktů. Alternativní protokol CommerceTXT nabízí formát optimalizovaný přímo pro e-commerce s deklarovanou redukcí tokenů o přibližně 95 % oproti JSON, což slibuje značnou úsporu nákladů na AI zpracování.
Důležité je nezapomenout, že u e-shopu není nutné a často ani žádoucí do llms-full.txt zahrnovat každý jednotlivý produkt jako prostý text. Efektivnější přístup je kombinovat kategoriové popisy s odkazy na strukturované produktové feedy ve formátu JSON, které AI modely zpracovávají řádově efektivněji než prosté textové výpisy nebo procházení stovek HTML stránek. Dell Technologies, jeden z prvních velkých e-commerce hráčů s llms.txt, jde právě touto cestou, což podtrhuje důležitost strukturovaných dat pro AI.
Odkaz na sitemap.xml z llms.txt
Specifikace llms.txt se k otázce propojení se sitemap.xml vyjadřuje explicitně – a staví oba formáty jako komplementární, nikoli zastupitelné. Sitemap.xml není náhradou za llms.txt, protože sitemapa typicky neobsahuje LLM-čitelné verze stránek, nezahrnuje externí URL adresy užitečné pro pochopení kontextu a v souhrnu pokrývá dokumenty příliš rozsáhlé pro kontextové okno AI modelu. Zatímco sitemap je určena pro vyhledávače k indexaci, llms.txt je navržen pro AI, aby pochopila a zpracovala obsah.
Z analýzy reálných implementací vyplývá, že žádná z velkých firem – Cloudflare, Stripe, Anthropic, Vercel – v llms.txt na sitemap.xml přímo neodkazuje. Místo toho všechny využívají kurátorsky sestavené seznamy odkazů organizované do H2 sekcí s popisky, což umožňuje přesnější kontrolu nad tím, jaké informace jsou AI prezentovány. Přesto existují praktické argumenty pro zahrnutí odkazu na sitemapu jako jednoho z doplňkových odkazů v llms.txt, zejména u e-shopů, kde je počet produktů obrovský a kurátorský výběr všech URL by byl náročný.
Doporučený přístup pro e-shop je pragmatický kompromis: hlavní obsah llms.txt zůstane kurátorský a strukturovaný podle specifikace, zatímco na konci souboru, ideálně v sekci ## Optional (která může být přeskočena při zkráceném kontextu), lze zahrnout odkaz na produktovou sitemapu jako doplňkový zdroj. Prioritou by však měly být strukturované feedy v JSON formátu, které AI modely zpracovávají řádově efektivněji než procházení stovek HTML stránek přes sitemapu, poskytující tak AI agentům okamžitě použitelná data.
Investice s nízkým rizikem
V rámci optimalizace pro generativní jazykové modely představuje implementace llms.txt a strukturovaných dat obecně snadno dosažitelnou investici s nízkým rizikem a potenciálně vysokým výnosem, přestože ekosystém se stále rychle vyvíjí. Dvouvrstvá architektura llms.txt plus llms-full.txt efektivně pokrývá potřeby jak real-time AI asistentů, tak ingestion pipeline, zajišťující, že váš obsah je srozumitelný a dostupný pro širokou škálu AI aplikací. Pro rozsáhlý sortiment je segmentace po kategoriích s centrálním rozcestníkem osvědčeným modelem, který účinně eliminuje problém s překročením kontextových oken AI modelů. Odkaz na sitemapu má v llms.txt své místo jako doplňkový zdroj, nikoli jako náhrada kurátorského výběru, který by měl vždy vést AI k nejdůležitějším a nejrelevantnějším informacím. Současně je však třeba zdůraznit, že soubor llms.txt a llms-full.txt jsou důležitými facilitátory, ale základem úspěchu zůstává kvalitní, expertní a důvěryhodný obsah, který AI může zpracovávat a prezentovat uživatelům.
Proaktivní strukturování webového obsahu pro umělou inteligenci není pouze technickým úkolem, ale strategickým krokem, který zásadně ovlivňuje, jak jsou digitální informace vnímány a využívány v neustále se vyvíjejícím AI prostředí. Jde o zajištění jasnosti a objevitelské schopnosti v nové éře konzumace informací, což dláždí cestu pro bohatší interakce a vylepšené uživatelské zážitky, i když přímý dopad je stále plně pochopitelný a měřený.



