Václav Šlajs: Od vibe codingu k AI-first firmě z pohledu IT
Vytvořeno: 23.4.2026 | Aktualizováno: 23.04.2026 13:28
Rozhovor s Václavem Šlajsem o posunu od vibe codingu k AI-first firmě je praktický pohled na to, kde už dnes dává AI ve firmě reálný smysl a kde naopak naráží na limity. Největší přínos videa je v kombinaci několika témat: víceagentní review kódu, práce s velkým kontextem, důraz na Markdown dokumentaci a opatrnost při práci se zákaznickými daty.
Kontext a shrnutí
Ve videu zaznívá rozdíl mezi rychlým „vibe codingem“ a systematickým budováním AI-first firmy. Pro interní aplikace a automatizace už tenhle přístup může fungovat velmi dobře, pokud je k dispozici kvalitní kontext, čistá data a někdo, kdo výstupy AI průběžně kontroluje. U systémů, které pracují se zákaznickými daty nebo citlivými informacemi, je přístup výrazně opatrnější.
Důležitá není jen volba modelu, ale celé pracovní prostředí okolo něj:
- jak se do modelu dostává kontext,
- jak probíhá kontrola kvality výstupu,
- jak jsou rozdělená data podle citlivosti,
- jak se měří spotřeba tokenů a náklady.
Praktické principy z videa
Víceagentní review kódu
Jedna z nejpraktičtějších myšlenek je nepovažovat výstup jednoho modelu za finální. Ve videu zaznívá workflow, kde jeden agent kód připraví a další agent ho zreviduje. Jako konkrétní kombinace padá Claude Code a CodeRabbit.
Tahle zpětnovazební smyčka je použitelná hlavně tam, kde je potřeba:
- rychle prototypovat interní nástroj,
- hlídat kvalitu výstupu bez čistě ručního review,
- dostat AI z roviny „vygeneruj mi něco“ do roviny opakovaně vylepšovaného workflow.
Interní aplikace jako vhodný start
Z videa je dobře čitelné, že interní aplikace jsou dnes pro AI-first přístup vhodnější než produkční systémy nad zákaznickými daty. Dává to smysl hlavně pro:
- menší interní nástroje,
- firemní workflow, na která dřív nebyl čas,
- automatizace schvalování, reportingu nebo podpůrných procesů.
Naopak u produktů nad zákaznickými daty zaznívá výrazně větší opatrnost. Nejde jen o kvalitu kódu, ale i o legislativu, compliance a práci s citlivými daty.
Kontext je důležitější než ladění jednoho promptu
Video nestojí na jednom „zázračném promptu“. Důležitější je práce s kontextem:
- mít k dispozici dost dokumentace,
- pracovat s větším kontextovým oknem modelu,
- udržovat znalosti v textové podobě, ideálně v
Markdownsouborech, - průběžně čistit a strukturovat data tak, aby je AI uměla spolehlivě použít.
Praktický závěr je jednoduchý: pokud je firemní znalost rozpadlá v neudržovaných poznámkách a nejasných složkách, agenti budou dělat horší rozhodnutí. Ve videu proto zaznívá i doporučení mít v adresářové struktuře jasné README soubory a snižovat historický nepořádek v datech.
Stručnost a jazyk mají vliv na tokeny
Ve videu padá i praktická poznámka ke spotřebě tokenů. Extrémně stručný styl komunikace může podle zkušenosti z rozhovoru výrazně snížit množství výstupních tokenů. Zaznívá také, že angličtina je z pohledu tokenizace často úspornější než čeština s diakritikou.
To není důvod psát nečitelně, ale je to dobrá připomínka pro workflow, kde se AI volá často a náklady jsou viditelné.
Nástroje a use-cases
Nástroje, které ve videu zaznívají
- Claude / Anthropic modely – hlavní modely pro náročnější logiku a práci s velkým kontextem.
- Cursor – editor pro AI-first vývoj.
- CodeRabbit – další agent v review smyčce nad kódem.
- Microsoft Copilot for Business – firemní standard pro širší použití mimo čistě technické experimenty.
- OpenTelemetry – způsob, jak sledovat spotřebu tokenů a náklady v agentických workflow.
- Microsoft Fabric – zdroj dat pro BI scénáře a personalizované výstupy.
Konkrétní scénáře použití
- Interní aplikace – AI-first přístup dává smysl tam, kde je potřeba rychle dodat interní nástroj a kde nejsou v hlavní roli citlivá zákaznická data.
- BI a obchodní reporting – nad daty ve Fabricu lze připravovat personalizované reporty a z nich generovat další výstupy, například personalizované e-maily.
- Osobní workflow – ve videu zaznívá i lehčí use-case s nákupy a jídelníčkem nad Rohlíkem, který dobře ukazuje, že MCP a agenti nemusí končit jen u vývoje softwaru.
Bezpečnost a práce s daty
Jedno z nejdůležitějších varování ve videu je Cloud Act. Právě ten je popsaný jako zásadní bloker pro nasazování AI nad citlivými zákaznickými daty. Praktický dopad je jasný: nestačí řešit jen to, co model umí, ale i to, jaká data do něj vůbec mohou vstupovat.
Jako rozumný základ zaznívají tyto principy:
- rozdělit data podle citlivosti,
- mít seznam schválených nástrojů pro jednotlivé typy dat,
- nepouštět zákaznická nebo osobní data do nástrojů bez jasně vyřešeného compliance rámce,
- začít nejdřív tam, kde jsou data interní a riziko je nižší.
Co si z toho odnést do praxe
- Zkusit workflow „generator + reviewer“ místo slepé důvěry jednomu modelu.
- Začít na interní aplikaci nebo automatizaci, ne na systému nad zákaznickými daty.
- Převádět důležité know-how do
Markdownsouborů a zpřehlednit strukturu dokumentace. - Měřit spotřebu tokenů a náklady, neřešit AI jen pocitově.
- Před nasazením si jasně určit, která data mohou do kterého nástroje.