Marek Bartoš – Po tomhle videu už nenapíšeš prompt jako dřív rozebírá, proč mají velké jazykové modely často lepší výsledky při použití běžných a krátkých slov. Na praktické rovině na to navazuje projekt Caveman, který stejnou intuici převádí do skillu pro stručnější komunikaci s AI agenty.
Hlavní teze videa je jednoduchá: pokud prompt nebo instrukce říkají totéž, ale jedna varianta používá běžnější a méně formální slovník, model má větší šanci dojít ke správnému výsledku. Ve videu je to vysvětlené přes frekvenci slov, pravděpodobnostní distribuci tokenů a vyšší jistotu modelu u často vídaných formulací. Caveman na to nenavazuje jeden k jednomu, ale jde podobným směrem: odřezává vatu, zkracuje výstupy a snaží se držet technický obsah při co nejnižším počtu tokenů.
Video opakuje několik praktických tvrzení:
Ve videu je také zmíněný překladový experiment do srbštiny, práce s NLL loss, princip pojmenovaný jako „Adamův zákon“, metoda TFT (Textual Frequency Distillation) a návrh tréninkového postupu CTFT. Tyto části v transkriptu zaznívají, ale video v samotném přepisu neobsahuje přesné bibliografické odkazy ke všem těmto pojmům.
V repo Caveman je přímo odkaz na paper Brevity Constraints Reverse Performance Hierarchies in Language Models. Ten skutečně tvrdí, že u části benchmarků vedlo omezení modelů na stručné odpovědi ke zlepšení přesnosti o 26 procentních bodů a v některých úlohách obrátilo pořadí výkonu mezi malými a velkými modely.
Důležitý detail je, že tento paper řeší primárně stručnost odpovědi, ne úplně totéž co video, které mluví hlavně o jednoduchosti vstupního jazyka. Obě věci spolu souvisejí, ale nejsou to totožné hypotézy.
Tyto body dávají v kontextu videa smysl, ale pro serióznější použití v dokumentaci nebo ve firemních doporučeních by stálo za to dohledat původní paper nebo prezentaci, ze které Marek Bartoš čerpá.
Z videa i z navazujících materiálů dává smysl držet se těchto pravidel:
Příklad rozdílu:
Mohl bys analyzovat, proč dochází k opakovanému renderování této React komponenty?
React komponenta se renderuje pořád dokola. Najdi proč a navrhni opravu.
Caveman není akademická demonstrace stejné teorie, ale praktický skill a sada pluginů, které jdou po podobném efektu z jiné strany.
| Oblast | Video / teze | Caveman |
|---|---|---|
| Primární fokus | jednodušší vstupní jazyk pro lepší reasoning | stručnější výstup a komprese kontextu |
| Hlavní přínos | lepší šance, že model půjde po „vyšlapané cestě„ | méně tokenů, rychlejší odpovědi, menší vata |
| Forma | argumentace přes výzkum a vysvětlení | hotový skill/plugin pro agenty |
| Co slibuje | lepší výsledky při jednodušším zadání | cca 65 % průměrné úspory output tokenů a cca 46 % úspory při kompresi kontextu podle README |
| Praktické použití | formulace promptů, instrukcí a systémových zadání | Claude Code, Codex, Gemini CLI, Cursor, Windsurf, Copilot, Cline a další |
Repo je zajímavé hlavně tím, že z jednoduché intuice dělá konkrétní workflow:
lite, full a ultra pro různé úrovně stručnosti,caveman-compress pro zkracování kontextových souborů typu 'CLAUDE.md',Tady jsou dva nejpraktičtější instalační příklady z README:
claude plugin marketplace add JuliusBrussee/caveman claude plugin install caveman@caveman
npx skills add JuliusBrussee/caveman
Pokud se AI používá na běžnou práci, dává smysl oddělit dvě věci:
Na vstupu používat obyčejný jazyk, krátké věty a nepřekombinované instrukce.Na výstupu si podle potřeby vynutit stručnost, pokud je cílem rychlost, menší cena a menší objem textu.To se dobře doplňuje. Jednodušší prompt může pomoct modelu lépe přemýšlet a stručnější výstup může zrychlit práci člověka i dalšího agenta v řetězci.