Toto je starší verze dokumentu!


Jak dostat web do výsledků ChatGPT aneb optimalizace webu pro AI

Zatímco klasické SEO (Search Engine Optimization) se zaměřuje na to, jak být vidět ve vyhledávačích jako Google, nový směr zvaný GEO – Generative Engine Optimization – se snaží dostat váš web do odpovědí velkých jazykových modelů (LLMs), jako je ChatGPT, Gemini nebo Claude.

Zásadní rozdíl spočívá ve způsobu, jakým uživatelé kladou dotazy. U vyhledávačů lidé používají krátké fráze, většinou dvě až tři klíčová slova: „oprava koupelny Brno“. U chatbotů je ale běžné, že dotaz má i 40–50 slov a obsahuje více otázek. Například: „Potřebuji opravit koupelnu v Brně, jak poznám dobrou firmu, kolik to bude stát a jak dlouho to trvá?“

Aby váš web dokázal na takové otázky reagovat, musí být jeho obsah srozumitelný a kontextově bohatý. Nestačí mít klíčová slova, ale konkrétní odpovědi.

Jak ověřit, že váš obsah dává smysl i pro LLM

Zkopírujte text své homepage a vložte jej do ChatGPT. Zeptejte se: „O čem je tento web?“

Pokud model odpoví, že jste „moderní dynamická firma“, místo toho, že prodáváte okna, stavební materiál nebo poskytujete konkrétní služby, znamená to, že váš obsah není dostatečně jasný. Chatbot nevidí do vaší hlavy, potřebuje kontext. Tento test je jednoduchý a účinný způsob, jak odhalit nepochopitelný obsah.

Optimalizace textu pro LLM je podobná jako první vlny SEO – dlouhodobě výhodná investice.

Zásadní rozdíl mezi vyhledáváním v Googlu a v chatu je v povaze dotazů. Do Googlu píšeme 2–3 klíčová slova, zatímco chatbotům pokládáme celé věty a komplexní otázky, často ve více krocích. Z toho plyne hlavní cíl obsahové strategie:

Váš web musí obsahovat přímé a jasné odpovědi na otázky, které pokládají uživatelé chatbotům.

Doporučení pro tvorbu obsahu přátelského k AI:

  • Struktura Otázka-Odpověď: Aktivně do textů začleňujte běžné uživatelské dotazy (např. v sekci FAQ nebo přímo v textu) a poskytujte na ně stručné, jasné a faktické odpovědi.
  • Jasnost a srozumitelnost: Vyhýbejte se marketingovým klišé jako „jsme moderní dynamická firma“. Soustřeďte se na konkrétní, strojově čitelné informace: co přesně děláte, jakou máte kapacitu, kde působíte. Ukažte, že rozumíte cestě zákazníka, který může hledat například takto: „Potřebuju opravit koupelnu… co by měla profesionální firma umět, nebo kde bych ji našel?“
  • Konzistence informací: Ujistěte se, že klíčové údaje, jako je adresa, telefonní číslo, IČO nebo popis služeb, jsou naprosto shodné na všech stránkách vašeho webu. Nekonzistence mate roboty a snižuje důvěryhodnost.

Technická implementace GEO

Následující tabulka shrnuje klíčové technické prvky, které jsou pro GEO zásadní.

Technický prvek Účel Důležitost
Optimalizace pro Bing ChatGPT a Copilot primárně využívají vyhledávač Bing pro přístup k aktuálním datům. Být vidět na Bingu je dnes klíčové. Vysoká
Sitemap.xml Poskytuje robotům kompletní mapu všech stránek na webu, které mají být indexovány. Zajišťuje jejich rychlou objevitelnost. Vysoká (Must-have)
Strukturovaná data (Schema.org) „Obaluje“ informace do srozumitelných „chlívečků“, aby AI chápala, co je cena, produkt, adresa, jméno osoby nebo recenze. Vysoká (Must-have)
IndexNow Služba (využívaná Bingem), která okamžitě informuje vyhledávač o novém nebo aktualizovaném obsahu, což zrychluje indexaci. Doporučená
robots.txt Standardní soubor pro řízení přístupu robotů. Umožňuje explicitně povolit nebo zakázat přístup konkrétním robotům jazykových modelů. Vysoká (Must-have)
llms.txt Nový, formující se standard, který poskytuje detailnější direktivy přímo pro roboty jazykových modelů. Doporučená (Nice-to-have)

Technická průchodnost webu je základní podmínkou pro to, aby se LLM k vašemu obsahu vůbec dostal. Dobře udělané SEO znamená půl práce, ale GEO přidává další vrstvu – přehlednost, dostupnost a správné označení dat.

1. Řízení robotů

  • robots.txt – stále klíčový soubor, který říká robotům, co mohou indexovat. Například iDnes zakázal přístup robotu ChatGPT. Pokud to uděláte vy, vaše data se v odpovědích ChatGPT nikdy neobjeví.
  • llms.txt – nový experimentální standard, který může v budoucnu nabýt významu. Určuje, které části webu jsou důležité pro jazykové modely. Doporučuje se připravit ho dopředu – stojí jen pár minut.

2. Struktura a indexace

  • Sitemap (mapa stránek) – pomáhá robotům najít všechny vaše stránky a pochopit jejich prioritu.
  • IndexNow – systém, který upozorňuje vyhledávače (hlavně Bing, na němž stojí ChatGPT), že máte nový obsah. Okamžitě tak zrychlíte indexaci.

3. Srozumitelnost dat (schémata)

Stránky musí být „strojově čitelné“. Pomáhá to nejen vyhledávačům, ale i AI.

  • Schémata / Mikroformáty – označte strukturovaně produkty, ceny, hodnocení, adresy, telefonní čísla. Když model pochopí, že jde o produkt s konkrétní cenou, dokáže na vás odkázat s vyšší přesností.

4. Technické bariéry

  • Cloudflare a CAPTCHA – brání robotům LLM v přístupu. Pokud váš web vyžaduje ověření „Nejsem robot“, ChatGPT se přes něj nedostane.
  • Monetizace přístupu – některé platformy (např. Cloudflare) experimentují s placeným přístupem pro LLM. Zkontrolujte, zda váš web není omylem blokován.

Michal Kubíček vytvořil framework KOMPAS, který pomáhá psát kvalitní prompty pro jazykové modely. Slouží jako kuchařka, aby LLM dostal přesný kontext a zadání.

KOMPAS znamená:

  • K – Kontext (o čem mluvím)
  • O – Osobnost / Role (kdo jsem a z jaké pozice mluvím)
  • M – Mise / Cíl (co chci dosáhnout)
  • P – Parametry (omezení, podmínky)
  • A – Aplikace pravidel (co model smí a nesmí)
  • S – Struktura postupu (jak má model odpovídat)

Kubíček to přirovnává k zaškolování nového zaměstnance. Když mu nedáte kontext, roli a cíl, bude improvizovat. Stejně tak LLM – bez struktury dělá průměrné výstupy.

Kompas v éře Vibe Codingu

Vibe Coding je způsob programování pomocí přirozeného jazyka. Dnes je „nejvíc sexy jazyk“ angličtina – nebo čeština. Uživatel se stává architektem, ne kodérem. Aby mohl architekt správně navrhnout systém, musí přesně popsat cíl, pravidla a strukturu. KOMPAS je k tomu ideální rámec.

Praktické využití

Kubíček používá Kompas při tvorbě Custom GPTs. Například při brainstormingu v autě používá hlasový režim ChatGPT, ve kterém si v předvolbách (Custom Instructions) nastavil jasná pravidla: model má během mluvení reagovat pouze neutrálním „Hm, mhm“ a čekat na jeho pokyn „Konec“, kterým signalizuje, že domluvil. Tento postup může čtenář snadno zopakovat – stačí v nastavení ChatGPT přejít do sekce Custom Instructions a do odpovědí pro hlasový režim zadat jednoduchý textový pokyn, že model má pouze potvrzovat krátkým „Hm, mhm“ a čekat na příkaz „Konec“. Tento hack pomáhá zachovat plynulost myšlenek, zabránit předčasnému vstupu modelu do konverzace a udržet konzistentní strukturu zadání. Díky tomu může uživatel souvisle diktovat nápady a později je snadno převést do konkrétního zadání bez rušení modelem.


1. Workflow pro Vibe Coding

Proces vývoje aplikace pomocí LLM probíhá ve fázích:

A. Generování nápadu

  • Používá hlasový režim ChatGPT pro brainstorming.
  • Zadání strukturuje podle Kompasu.
  • Vytváří dokumentaci PRD (Product Requirement Document), kde popíše funkce a cíle.

B. Programování a nasazení

  • Nechá model vygenerovat kód.
  • Pomocí nástroje Cursor (AI klon VS Code) kód ladí a nasazuje.
  • Výsledkem může být plně funkční aplikace během hodin místo dnů.

_Příklad:_ Kubíček vytvořil účetní nástroj pro e-shop, který mu dříve zabíral 45 minut týdně. S využitím AI aplikace celý proces zkrátil na dvě minuty.

2. Používané nástroje

Nástroj Účel
Cursor Editor s AI integrací pro ladění kódu.
Custom GPTs Vlastní modely napojené na API a databáze.
API (Appy) Propojení modelů s externími službami (např. ARES, e-maily).
Apify Scrapování dat z webů, která se pak zpracují pomocí LLM.
Tooling Schopnost modelu spouštět specifické funkce (např. vyhledávání, generování obrázků).

3. Workflow pro hluboký výzkum

Michal Kubíček používá metodu Deep Research, při které kombinuje čtyři různé nástroje:

  • ChatGPT – pro kontext a komunikaci,
  • Perplexity – pro faktické hledání,
  • Claude – pro lidský styl psaní,
  • Gemini – pro alternativní pohled.

Poté výsledky kompiluje a nechá z nich model vytvořit souhrn. Pro řízené výzkumy používá Notebook LM, který čerpá jen ze zadaných zdrojů – ideální pro firemní data.

Tento přístup řeší hlavní slabinu LLMs – že mají tendenci generovat průměrné odpovědi. Kombinací strukturovaných promptů, více modelů a vlastních dat lze dosáhnout výsledků, které se blíží lidské expertíze.

Optimalizace webu pro AI není revoluce, ale přirozený vývoj SEO. Cílem není zalíbit se robotům, ale být pro ně čitelný a srozumitelný. Kdo začne obsah strukturovat už teď, bude mít v éře generativních asistentů značný náskok.

  • it/ai/prakticke-aplikace/optimalizace-webu-pro-ai.1760187636.txt.gz
  • Poslední úprava: 2025/10/11 13:00
  • autor: Petr Nosek