Obsah

Marek Bartoš: Proč s AI mluvit jednoduše a kde do toho zapadá Caveman

Marek Bartoš – Po tomhle videu už nenapíšeš prompt jako dřív rozebírá, proč mají velké jazykové modely často lepší výsledky při použití běžných a krátkých slov. Na praktické rovině na to navazuje projekt Caveman, který stejnou intuici převádí do skillu pro stručnější komunikaci s AI agenty.

Shrnutí

Hlavní teze videa je jednoduchá: pokud prompt nebo instrukce říkají totéž, ale jedna varianta používá běžnější a méně formální slovník, model má větší šanci dojít ke správnému výsledku. Ve videu je to vysvětlené přes frekvenci slov, pravděpodobnostní distribuci tokenů a vyšší jistotu modelu u často vídaných formulací. Caveman na to nenavazuje jeden k jednomu, ale jde podobným směrem: odřezává vatu, zkracuje výstupy a snaží se držet technický obsah při co nejnižším počtu tokenů.

Co přesně ve videu zaznívá

Video opakuje několik praktických tvrzení:

Ve videu je také zmíněný překladový experiment do srbštiny, práce s NLL loss, princip pojmenovaný jako „Adamův zákon“, metoda TFT (Textual Frequency Distillation) a návrh tréninkového postupu CTFT. Tyto části v transkriptu zaznívají, ale video v samotném přepisu neobsahuje přesné bibliografické odkazy ke všem těmto pojmům.

Co je podložené a co je potřeba brát opatrně

Dobře dohledatelný externí podklad

V repo Caveman je přímo odkaz na paper Brevity Constraints Reverse Performance Hierarchies in Language Models. Ten skutečně tvrdí, že u části benchmarků vedlo omezení modelů na stručné odpovědi ke zlepšení přesnosti o 26 procentních bodů a v některých úlohách obrátilo pořadí výkonu mezi malými a velkými modely.

Důležitý detail je, že tento paper řeší primárně stručnost odpovědi, ne úplně totéž co video, které mluví hlavně o jednoduchosti vstupního jazyka. Obě věci spolu souvisejí, ale nejsou to totožné hypotézy.

Tvrzení, která ve videu zaznívají, ale chtěla by dohledat původní studii

Tyto body dávají v kontextu videa smysl, ale pro serióznější použití v dokumentaci nebo ve firemních doporučeních by stálo za to dohledat původní paper nebo prezentaci, ze které Marek Bartoš čerpá.

Praktický závěr pro psaní promptů

Z videa i z navazujících materiálů dává smysl držet se těchto pravidel:

Příklad rozdílu:

Mohl bys analyzovat, proč dochází k opakovanému renderování této React komponenty?
React komponenta se renderuje pořád dokola. Najdi proč a navrhni opravu.

Kde do toho zapadá Caveman

Caveman není akademická demonstrace stejné teorie, ale praktický skill a sada pluginů, které jdou po podobném efektu z jiné strany.

Oblast Video / teze Caveman
Primární fokus jednodušší vstupní jazyk pro lepší reasoning stručnější výstup a komprese kontextu
Hlavní přínos lepší šance, že model půjde po „vyšlapané cestě„ méně tokenů, rychlejší odpovědi, menší vata
Forma argumentace přes výzkum a vysvětlení hotový skill/plugin pro agenty
Co slibuje lepší výsledky při jednodušším zadání cca 65 % průměrné úspory output tokenů a cca 46 % úspory při kompresi kontextu podle README
Praktické použití formulace promptů, instrukcí a systémových zadání Claude Code, Codex, Gemini CLI, Cursor, Windsurf, Copilot, Cline a další

Repo je zajímavé hlavně tím, že z jednoduché intuice dělá konkrétní workflow:

Tady jsou dva nejpraktičtější instalační příklady z README:

claude plugin marketplace add JuliusBrussee/caveman
claude plugin install caveman@caveman
npx skills add JuliusBrussee/caveman

Co z toho plyne v praxi

Pokud se AI používá na běžnou práci, dává smysl oddělit dvě věci:

  1. Na vstupu používat obyčejný jazyk, krátké věty a nepřekombinované instrukce.
  2. Na výstupu si podle potřeby vynutit stručnost, pokud je cílem rychlost, menší cena a menší objem textu.

To se dobře doplňuje. Jednodušší prompt může pomoct modelu lépe přemýšlet a stručnější výstup může zrychlit práci člověka i dalšího agenta v řetězci.

Limity

Zdroje