====== Marek Bartoš: Proč s AI mluvit jednoduše a kde do toho zapadá Caveman ====== [[https://www.youtube.com/watch?v=sBJMuoBETXs|Marek Bartoš – Po tomhle videu už nenapíšeš prompt jako dřív]] rozebírá, proč mají velké jazykové modely často lepší výsledky při použití běžných a krátkých slov. Na praktické rovině na to navazuje [[https://github.com/JuliusBrussee/caveman|projekt Caveman]], který stejnou intuici převádí do skillu pro stručnější komunikaci s AI agenty. {{youtube>sBJMuoBETXs?}} ===== Shrnutí ===== Hlavní teze videa je jednoduchá: pokud prompt nebo instrukce říkají totéž, ale jedna varianta používá běžnější a méně formální slovník, model má větší šanci dojít ke správnému výsledku. Ve videu je to vysvětlené přes frekvenci slov, pravděpodobnostní distribuci tokenů a vyšší jistotu modelu u často vídaných formulací. Caveman na to nenavazuje jeden k jednomu, ale jde podobným směrem: odřezává vatu, zkracuje výstupy a snaží se držet technický obsah při co nejnižším počtu tokenů. ===== Co přesně ve videu zaznívá ===== Video opakuje několik praktických tvrzení: * Běžná slova jsou pro model „vyšlapanější cesta" než vzácný nebo příliš formální slovník. * Model může vzácná slova znát a správně je chápat, ale při delším řetězci úvah se na nich snáz „rozbije" logika. * Zjednodušení slovníku podle autora pomáhá nejen v překladu, ale i v matematickém uvažování, tool-callingu a obecném řešení problémů. * Praktický závěr je nekomplikovat prompty zbytečným žargonem a místo toho psát krátce, přímo a běžným jazykem. Ve videu je také zmíněný překladový experiment do srbštiny, práce s NLL loss, princip pojmenovaný jako „Adamův zákon“, metoda TFT (''Textual Frequency Distillation'') a návrh tréninkového postupu CTFT. Tyto části v transkriptu zaznívají, ale video v samotném přepisu neobsahuje přesné bibliografické odkazy ke všem těmto pojmům. ===== Co je podložené a co je potřeba brát opatrně ===== ==== Dobře dohledatelný externí podklad ==== V repo [[https://github.com/JuliusBrussee/caveman|Caveman]] je přímo odkaz na paper [[https://arxiv.org/abs/2604.00025|Brevity Constraints Reverse Performance Hierarchies in Language Models]]. Ten skutečně tvrdí, že u části benchmarků vedlo omezení modelů na stručné odpovědi ke zlepšení přesnosti o 26 procentních bodů a v některých úlohách obrátilo pořadí výkonu mezi malými a velkými modely. Důležitý detail je, že tento paper řeší primárně ''stručnost odpovědi'', ne úplně totéž co video, které mluví hlavně o ''jednoduchosti vstupního jazyka''. Obě věci spolu souvisejí, ale nejsou to totožné hypotézy. ==== Tvrzení, která ve videu zaznívají, ale chtěla by dohledat původní studii ==== * nárůst přesnosti u benchmarků po zjednodušení slovníku, * překladový experiment se zjednodušenou formulací, * vysvětlení přes NLL loss a preferenci vysokofrekvenčních slov, * pojmy TFT a CTFT. Tyto body dávají v kontextu videa smysl, ale pro serióznější použití v dokumentaci nebo ve firemních doporučeních by stálo za to dohledat původní paper nebo prezentaci, ze které Marek Bartoš čerpá. ===== Praktický závěr pro psaní promptů ===== Z videa i z navazujících materiálů dává smysl držet se těchto pravidel: * Pokud jde něco říct jednodušeji bez ztráty významu, je lepší zvolit jednodušší variantu. * Krátké věty a přímé instrukce bývají lepší než formální omáčka. * Pokud model selhává v reasoning úloze, má smysl nejdřív zjednodušit jazyk zadání a teprve potom přidávat další vrstvy instrukcí. * Jednoduchý jazyk neznamená vágní jazyk. Pořád je potřeba říct, co má být výstup, formát a omezení. Příklad rozdílu: Mohl bys analyzovat, proč dochází k opakovanému renderování této React komponenty? React komponenta se renderuje pořád dokola. Najdi proč a navrhni opravu. ===== Kde do toho zapadá Caveman ===== [[https://github.com/JuliusBrussee/caveman|Caveman]] není akademická demonstrace stejné teorie, ale praktický skill a sada pluginů, které jdou po podobném efektu z jiné strany. ^ Oblast ^ Video / teze ^ Caveman ^ | Primární fokus | jednodušší ''vstupní'' jazyk pro lepší reasoning | stručnější ''výstup'' a komprese kontextu | | Hlavní přínos | lepší šance, že model půjde po „vyšlapané cestě" | méně tokenů, rychlejší odpovědi, menší vata | | Forma | argumentace přes výzkum a vysvětlení | hotový skill/plugin pro agenty | | Co slibuje | lepší výsledky při jednodušším zadání | cca 65 % průměrné úspory output tokenů a cca 46 % úspory při kompresi kontextu podle README | | Praktické použití | formulace promptů, instrukcí a systémových zadání | Claude Code, Codex, Gemini CLI, Cursor, Windsurf, Copilot, Cline a další | Repo je zajímavé hlavně tím, že z jednoduché intuice dělá konkrétní workflow: * režimy ''lite'', ''full'' a ''ultra'' pro různé úrovně stručnosti, * příkazy pro stručné commity a code review, * nástroj ''caveman-compress'' pro zkracování kontextových souborů typu '''CLAUDE.md''', * instalace pro víc agentních prostředí. Tady jsou dva nejpraktičtější instalační příklady z README: claude plugin marketplace add JuliusBrussee/caveman claude plugin install caveman@caveman npx skills add JuliusBrussee/caveman ===== Co z toho plyne v praxi ===== Pokud se AI používá na běžnou práci, dává smysl oddělit dvě věci: - ''Na vstupu'' používat obyčejný jazyk, krátké věty a nepřekombinované instrukce. - ''Na výstupu'' si podle potřeby vynutit stručnost, pokud je cílem rychlost, menší cena a menší objem textu. To se dobře doplňuje. Jednodušší prompt může pomoct modelu lépe přemýšlet a stručnější výstup může zrychlit práci člověka i dalšího agenta v řetězci. ===== Limity ===== * Ne každý odborný termín má smysl nahrazovat „jednodušším“ slovem. Když je přesný pojem důležitý, je lepší zachovat přesnost než slovník uměle zplošťovat. * Paper o brevity constraints nepokrývá automaticky všechny závěry z videa. Podporuje stručnost, ale není to přímý důkaz pro každé tvrzení o jednoduchém promptingu. * Úspory tokenů a benchmarky z README projektu Caveman jsou tvrzení maintainera repo. Pro vlastní produkční rozhodnutí je lepší si je přeměřit na vlastních úlohách. * Ve videu je i rozumná obava, že dlouhodobé přizpůsobování jazyka strojům může vést ke zplošťování vlastního vyjadřování. Pro promptování je to užitečná technika, ale není nutné ji přenášet do všeho ostatního. ===== Zdroje ===== * [[https://www.youtube.com/watch?v=sBJMuoBETXs|Marek Bartoš – Po tomhle videu už nenapíšeš prompt jako dřív]] * [[https://github.com/JuliusBrussee/caveman|JuliusBrussee/caveman]] * [[https://arxiv.org/abs/2604.00025|Brevity Constraints Reverse Performance Hierarchies in Language Models]]