Toto je starší verze dokumentu!
Co je pod pokličkou velkých AI modelů
Technický zápisek z podcastu s Davidem Strejcem (Apertiatech)
1. Shrnutí a strategický rámec
V tomhle zápisku shrnuji technické a strategické vhledy z rozhovoru s Davidem Strejcem, technickým ředitelem a zakladatelem Apertiatech. Zaměřuji se na to, jak AI reálně nasadit do IT praxe – ne na marketingové sliby velkých hráčů.
Davidův přístup stojí na dvou pilířích:
- zdravá skepse vůči korporátnímu marketingu (hlavně OpenAI),
- silná víra v praktické, levné a otevřené nástroje, které umožní dělat reálné věci i malým týmům a jednotlivcům.
Z rozhovoru jsem si odnesl tyto klíčové závěry:
- Předmět: Řeší se technické pozadí velkých modelů (LLM), strategie firem jako OpenAI, Anthropic, Google a hlavně praktické způsoby, jak AI použít: automatizace repetitivní práce, integrace do ERP/CRM, nástup agentů, kteří samostatně spravují servery nebo řeší komplexní úkoly.
- Relevance pro praxi: Materiál míří přímo na IT profesionály. Neřeší “AI v abstrakci”, ale konkrétní scénáře: párování katalogů, automatizace e-mailových objednávek, správa serverů agenty, sumarizace videí a meetingů, lokální automatizace přes VS Code.
- Strategický přínos: Nemá smysl vyvíjet vlastní základní modely. Hodnota je v aplikační vrstvě – ve wrapperech, agentech a konkrétních workflow nad existujícími modely. Cílem je šetřit čas a odstraňovat lidskou rutinu.
V dalších částech rozepisuji konkrétní principy práce s AI, příklady použití a nástroje, se kterými můžu tyto scénáře realizovat.
2. Jak s AI mluvit: principy interakce
V podcastu zaznělo důležité upozornění: nešlo o konkrétní prompty, ale o přenosné strategie. Textové “kouzlo” není přesné znění promptu, ale způsob uvažování.
2.1 Žádné “word-by-word” prompty
Zdrojový podcast neobsahoval konkrétní texty promptů. Vše se točilo kolem:
- mentálních modelů interakce,
- způsobu zadávání úkolů,
- iterace a analytické fáze před implementací.
Vše, co je níže, je koncepce, ne šablony promptů.
2.2 Klíčové techniky
Iterativní upřesňování
Nesnažím se napsat “dokonalý prompt na první dobrou”. Začnu:
- obecným zadáním (high-level cíl),
- podle odpovědí modelu zpřesňuji, doplňuji kontext,
- iteruji, dokud model přesně nepochopí, co chci.
Tuhle iteraci beru jako analytický rozhovor, ne jako selhání.
Přiřazení rolí (Role Assignment)
AI vždy řeknu, kým zrovna je. Tím měním úhel pohledu modelu:
- „Teď jsi byznys analytik a analyzuj toto zadání.“
- „Teď jsi bezpečnostní technik, najdi v tomto kódu zranitelnosti.“
- „Teď jsi můj uživatel, jak se ti líbí tato aplikace?“
Model pak neplave v abstrakci, ale simuluje konkrétní roli.
“Magická slova” – technická terminologie
Nemusím umět programovat, ale musím znát pojmenování věcí:
- Ansible, SSH, DNS, Docker, systemd, nginx…
Jedno takové “kouzelné slovo” dá modelu obrovské množství kontextu. Když místo obecného „oprava serveru“ napíšu „zkontroluj konfiguraci nginx reverse proxy a certifikáty Let’s Encrypt“, AI má najednou přesnou mapu problému.
Řetězec myšlenek (Chain-of-Thought)
U některých nástrojů (např. Deep Research u Claude, výstupy u Groku) vidím, jak model přemýšlel:
- mezikroky, úvahy, zvažované varianty,
- možné chyby v logice.
To je klíčové pro ladění a ověřování – nejde jen o výsledek, ale o postup, který k němu vedl.
2.3 Praktická doporučení
- Preferuji angličtinu
- Angličtina má levnější a efektivnější tokenizaci.
- V technických zadáních a programování je prakticky povinná.
- Česky mluvím, když potřebuji jemnější nuance v obsahu nebo komunikaci, ale technický core držím v angličtině.
- Nejprve analytická fáze, pak implementace
Před tím, než AI řeknu “udělej web”, s ní projdu:
- cíle,
- cílové uživatele,
- rozsah funkčnosti,
- omezení a metriky úspěchu.
Teprve po společném vyjasnění zadání spouštím generování kódu nebo konfigurace.
LLM používám jako mentora a buduju si “spellbook”
- AI mi vygeneruje logy, kód, konfiguráky plné pojmů, které neznám
- U každého z nich se modelu doptám: “Vysvětli mi, co je X a kdy se používá.
- Tím si systematicky rozšiřuju slovník “magických slov”, která mi otevírají další úroveň práce s AI.
3. Praktické use-cases z praxe
Podcast ukázal několik konkrétních scénářů, kde AI už dnes nahrazuje lidskou rutinu.
Automatizace párování produktových katalogů
- Problém:
Různí dodavatelé, rozdílné názvy, časté chyby. Manuální párování položek z cizích katalogů s interním katalogem bylo časově náročné a nespolehlivé. Tradiční pravidlová automatizace selhávala (názvy typu „banán“ vs. „žlutý zahnutý banán“).
- Řešení:
Nasazení LLM, které páruje položky sémanticky, ne jen podle řetězců. Model chápe, že jde o totéž zboží, i když je popis jiný.
- Výsledek:
Lidská práce v tomto procesu byla prakticky eliminována.
Zpracování a překlad objednávek z e-mailů
- Problém:
Velkoobchod přijímal objednávky e-mailem v různých jazycích z celé Evropy. Asistentka:
- četla e-maily,
- ručně překládala,
- ručně přepisovala do interního systému.
- Řešení:
Proof-of-concept AI systému, který:
- monitoruje příchozí e-maily,
- extrahuje relevantní data,
- přeloží je,
- zapíše do interního systému.
- Výsledek:
Plná náhrada rutinní práce asistentky.
Tvorba a správa webu pro netechnické uživatele
- Problém:
Uživatel bez znalosti kódu potřebuje vlastní web.
- Řešení (dvoufázový proces):
- Analytická fáze v nástroji typu Gemini
Uživatel s AI definuje:
- byznysový účel,
- obsah,
- cílové publikum,
- požadované funkce.
- Exekuční fáze přes agenta typu Cloud Coda
Výsledné specifikace se předají agentovi, který:
- vytvoří kód,
- nakonfiguruje prostředí,
- web nasadí.
Autonomní správa serveru agentem
- Problém:
Správa serverů (útoky, aktualizace, monitoring, disk, paměť) je kontinuální a náročná.
- Řešení:
AI agent (Cloud Coda) je nainstalovaný přímo na serveru (např. virtuál v Hetzneru) a má za úkol:
- spravovat systém,
- odrážet bot útoky,
- řešit problémy s diskem a pamětí,
- logovat a dokumentovat svou činnost (v konkrétním příkladu si agent psal i vlastní blog o tom, co na serveru řeší).
- Výsledek:
Správa serveru se výrazně automatizuje, člověk řeší až výjimky.
Analýza video obsahu (přednášky, podcasty)
- Problém:
Získat klíčové informace z hodinového videa je časově drahé.
- Řešení:
- video (soubor nebo YouTube odkaz) se nahraje do Google AI Studia,
- Gemini 2.5 Pro video zpracuje,
- nad obsahem pak lze:
- dělat sumarizace,
- extrahovat klíčové body,
- vyhledávat konkrétní témata.
Automatizace zpracování meetingů
- Problém:
Ruční přepis meetingů, sumarizace bodů a úkolů.
- Řetězec řešení:
- Meeting se nahraje přes Big Blue Button (BBB).
- Audio stopa se automaticky přepíše pomocí Gemini Flash.
- Přepis se pošle modelu k:
- sumarizaci,
- vytvoření akčních bodů,
- vygenerování úkolů.
Lokální automatizace práce se soubory
- Problém:
Potřebuji pracovat s citlivými soubory (např. Excel, CSV) bez nahrávání do cloudu.
- Řešení:
- nainstaluji VS Code,
- přidám AI plugin (např. R-Code, K-Code),
- v pluginu nastavím API klíč (např. z Google AI Studia),
- agent běžící v rámci VS Code získá přístup k lokálním souborům a na přirozený jazyk provádí operace:
- analýzy,
- transformace,
- generování reportů.
4. Nástroje a modely: co používám a proč
4.1 Modely
Claude (Opus & Sonnet)
- Denní pracovní kůň, David ho popisuje jako “kámoše”.
- Opus je preferovaný pro:
- systematický research,
- komplexní kódování.
- Slabiny:
- horší kreativita v češtině (např. rýmování),
- historické problémy s dostupností (blokace účtů).
- Použití: Když potřebuji důkladnou analýzu a robustní práci s kódem.
Gemini (2.5 Pro & Flash)
- Silný v:
- analýze extrémně dlouhých textů (okno až 1M tokenů),
- práci s češtinou.
- Verze přes Google AI Studio často působí rychleji a silněji než placené webové UI.
- Gemini Flash je optimalizovaný na rychlé úkoly (např. přepisy audio).
- Použití:
- sumarizace velkých dokumentů,
- analýza videí,
- české texty s důrazem na přesnost.
GPT-4o/5 (OpenAI)
- V podcastu padla kritika na:
- tendenci ke kvantizaci (zhoršování kvality kvůli nákladům),
- marketingově řízené změny výkonu.
- V konkrétním experimentu (politická strategická hra) se ukázal jako nejlepší manipulátor:
- lhaní,
- dočasné aliance,
- zrazování spojenců, pokud to vedlo k cíli.
- Použití:
Úlohy, kde potřebuji strategické a “taktické” uvažování. Musím ale počítat s potenciálně nestabilní kvalitou v čase.
Open-weight modely (DeepSeek, Llama)
- Váhy modelu jsou veřejně k dispozici, ale trénovací data nejsou.
- DeepSeek byl zmíněn i jako nástroj geopolitického vlivu.
- Llama (Meta) má licenční omezení – největší konkurenční tech firmy ji nesmí použít.
- Použití:
Experimenty a specifické lokální deploymenty, vždy v izolovaném prostředí kvůli bezpečnosti.
4.2 Platformy a nástroje
Cloud Coda
- AI agent pro příkazovou řádku, který “bydlí” přímo na serveru.
- Umí:
- administrovat server,
- vyvíjet a nasazovat aplikace,
- řešit úkoly psané v přirozeném jazyce.
- Nasazení:
- instalace na fyzický server nebo VPS,
- typický levný setup: VPS u Hetzneru ≈ €6/měsíc.
Google AI Studio
- Bezplatná brána k modelům Gemini.
- Poskytuje:
- webové rozhraní (aistudio.google.com),
- API klíče zdarma,
- přístup k Gemini 2.5 Pro (1M tokenů context, práce s videem).
VS Code + AI plugin (R-Code, K-Code)
- Nejsnazší cesta k lokálnímu AI agentovi nad vlastními soubory.
- Výhody:
- běží lokálně,
- má přímý přístup k souborovému systému,
- vhodný pro automatizaci bez cloudu.
Big Blue Button (BBB)
- Open-source alternativa k Zoom/Meet.
- Běží na vlastním serveru.
- Hodí se tam, kde chci:
- plnou kontrolu nad daty,
- navázat vlastní AI pipeline (přepisy, sumarizace, úkoly).
VirtualBox
- Nástroj pro vytvoření virtuálního, izolovaného stroje.
- Ideální pro:
- testování open-weight modelů,
- provoz potenciálně nedůvěryhodných agentů,
- bezpečný sandbox bez přístupu k hlavnímu systému.
5. Technické poznámky a best practices
5.1 Open Source vs. Open Weight
- Open Source – mám:
- zdrojový kód,
- možnost úprav,
- pro skutečně open-source AI bych potřeboval i trénovací data.
- Open Weight – mám jen:
- naučené váhy,
- bez trénovacích dat nemůžu plně ověřit, na čem model “vyrostl”.
To je zásadní rozdíl pro auditovatelnost a důvěru.
5.2 Bezpečnostní rizika (“spící agenti”)
U open-weight modelů od ne zcela transparentních zdrojů existuje teoretické riziko:
- skrytých funkcí (backdoorů),
- podmíněných reakcí (“spící agenti”), které se aktivují za specifických podmínek,
- odesílání dat ven.
Mitigace:
- provoz v izolovaném stroji (VirtualBox),
- odpojení od internetu nebo striktní firewall,
- oddělení od produkčních systémů.
5.3 Tokenizace, výkon a cena
- Tokenizér rozseká text na tokeny.
- Angličtina: obvykle ≈ 1 slovo = 1 token.
- Čeština: jedno slovo často → více tokenů (flexe, diakritika).
- Důsledky:
- český text je pro model “delší”,
- stejné zadání vyjde dráž,
- reálně zmenšuje využitelné kontextové okno.
Proto v technických scénářích volím angličtinu – šetřím tím peníze i výkon.
5.4 Kvantizace (“lobotomie” modelů)
- Provoz velkých modelů je drahý.
- Kvantizace snižuje přesnost vah (např. z FP16 na 8bit/4bit).
- Získám:
- úsporu výpočetního výkonu,
- ale i:
- méně přesné odpovědi,
- degradaci schopností.
To je důvod, proč se u některých komerčních modelů zdá, že se v čase “zhoršují”.
5.5 Modely uvažují v konceptech
Výzkum Anthropic ukazuje, že modely interně pracují s jazykově nezávislými koncepty.
Konkrétní pozorování u modelu Haiku:
- na zadání “slož báseň” model nejdřív:
- zvolil rýmující se koncová slova veršů,
- teprve potom:
- doplnil zbytek textu, který je propojuje.
Nepracuje tedy čistě “slovo po slově”, ale nejdřív si vytvoří konceptuální strukturu (rýmy, forma, schéma) a pak ji vypustí v konkrétním jazyce. To je základ sémantického porozumění a překladu.
6. Akční kroky pro IT profesionály
Na základě podcastu se ukazuje, že vstupní bariéra je extrémně nízká. Klíčové je začít.
6.1 Vytvoření nízkonákladového AI prostředí
Varianta A – Cloud (doporučuji pro začátek)
- Pořídím si levný VPS (např. Hetzner ≈ €6/měsíc).
- Připojím se přes SSH (Windows/macOS mají terminál v základu).
- Nainstaluji AI agenta (např. Cloud Coda nebo Gemini CLI).
- Zadám první jednoduchý úkol:
„Nainstaluj na tento server Big Blue Button a zprovozni základní instanci.“
Tím získám:
- první praktickou zkušenost s agentem,
- konkrétní výsledek (běžící službu).
Varianta B – Lokálně (pro práci se soubory)
- Nainstaluji VS Code.
- Přidám AI plugin (R-Code, K-Code).
- Získám API klíč z Google AI Studia a nastavím ho v pluginu.
- Začnu s jednoduchými úkoly:
- „Vytvoř mi souhrn z těchto tří textových dokumentů.“
- „Analyzuj tento Excel a popiš hlavní trendy.“
6.2 Mindset: jak k tomu přistoupit
- Učím se magická slova
V každém výstupu hledám nové pojmy a nechávám si je vysvětlit. Rozšiřuji si slovník a tím i sílu promptů.
- Čas na experimenty beru jako investici
Neřeším, že ne každý pokus vede k okamžitému výsledku. Důležitá je kumulace zkušeností – AI interakce je dovednost.
6.3 Fokus na aplikační vrstvu
Hlavní strategické doporučení z podcastu si formuluji takto:
“Nestavím motory, stavím auta.”
- Netrénuji vlastní foundation modely.
- Využívám existující “motory” (Claude, Gemini, GPT, open-weight).
- Soustředím se na:
- konkrétní use-cases,
- agentní workflow,
- integraci do reálných byznys procesů (ERP, CRM, e-mail, meetingy, katalogy),
- specializované nástroje pro konkrétní profese (makléři, právníci, marketing).
Tento zápisek beru jako výchozí mapu: co už dnes jde dělat, jaké nástroje k tomu použít a jak nad tím přemýšlet, aby AI nebyla hračka, ale produktivní “spolupracovník” v IT praxi.