Co je pod pokličkou velkých AI modelů
Technický zápisek z podcastu s Davidem Strejcem (Apertiatech)
1. Shrnutí a strategický rámec
V tomhle zápisku shrnuji technické a strategické vhledy z rozhovoru s Davidem Strejcem, technickým ředitelem a zakladatelem Apertiatech. Zaměřuji se na to, jak AI reálně nasadit do IT praxe – ne na marketingové sliby velkých hráčů.
Davidův přístup stojí na dvou pilířích:
zdravá skepse vůči korporátnímu marketingu (hlavně OpenAI),
silná víra v praktické, levné a otevřené nástroje, které umožní dělat reálné věci i malým týmům a jednotlivcům.
Z rozhovoru jsem si odnesl tyto klíčové závěry:
Předmět: Řeší se technické pozadí velkých modelů (LLM), strategie firem jako OpenAI, Anthropic, Google a hlavně praktické způsoby, jak AI použít: automatizace repetitivní práce, integrace do ERP/CRM, nástup agentů, kteří samostatně spravují servery nebo řeší komplexní úkoly.
Relevance pro praxi: Materiál míří přímo na IT profesionály. Neřeší “AI v abstrakci”, ale konkrétní scénáře: párování katalogů, automatizace e-mailových objednávek, správa serverů agenty, sumarizace videí a meetingů, lokální automatizace přes VS Code.
Strategický přínos: Nemá smysl vyvíjet vlastní základní modely. Hodnota je v aplikační vrstvě – ve wrapperech, agentech a konkrétních workflow nad existujícími modely. Cílem je šetřit čas a odstraňovat lidskou rutinu.
V dalších částech rozepisuji konkrétní principy práce s AI, příklady použití a nástroje, se kterými můžu tyto scénáře realizovat.
2. Jak s AI mluvit: principy interakce
V podcastu zaznělo důležité upozornění: nešlo o konkrétní prompty, ale o přenosné strategie. Textové “kouzlo” není přesné znění promptu, ale způsob uvažování.
2.1 Žádné “word-by-word” prompty
Zdrojový podcast neobsahoval konkrétní texty promptů. Vše se točilo kolem:
Vše, co je níže, je koncepce, ne šablony promptů.
2.2 Klíčové techniky
Iterativní upřesňování
Nesnažím se napsat “dokonalý prompt na první dobrou”. Začnu:
obecným zadáním (high-level cíl),
podle odpovědí modelu zpřesňuji, doplňuji kontext,
iteruji, dokud model přesně nepochopí, co chci.
Tuhle iteraci beru jako analytický rozhovor, ne jako selhání.
Přiřazení rolí (Role Assignment)
AI vždy řeknu, kým zrovna je. Tím měním úhel pohledu modelu:
„Teď jsi byznys analytik a analyzuj toto zadání.“
„Teď jsi bezpečnostní technik, najdi v tomto kódu zranitelnosti.“
„Teď jsi můj uživatel, jak se ti líbí tato aplikace?“
Model pak neplave v abstrakci, ale simuluje konkrétní roli.
“Magická slova” – technická terminologie
Nemusím umět programovat, ale musím znát pojmenování věcí:
Ansible, SSH,
DNS, Docker, systemd, nginx…
Jedno takové “kouzelné slovo” dá modelu obrovské množství kontextu. Když místo obecného „oprava serveru“ napíšu „zkontroluj konfiguraci nginx reverse proxy a certifikáty Let’s Encrypt“, AI má najednou přesnou mapu problému.
Řetězec myšlenek (Chain-of-Thought)
U některých nástrojů (např. Deep Research u Claude, výstupy u Groku) vidím, jak model přemýšlel:
To je klíčové pro ladění a ověřování – nejde jen o výsledek, ale o postup, který k němu vedl.
2.3 Praktická doporučení
Preferuji angličtinu
Angličtina má levnější a efektivnější tokenizaci.
V technických zadáních a programování je prakticky povinná.
Česky mluvím, když potřebuji jemnější nuance v obsahu nebo komunikaci, ale technický core držím v angličtině.
Nejprve analytická fáze, pak implementace
Před tím, než AI řeknu “udělej web”, s ní projdu:
Teprve po společném vyjasnění zadání spouštím generování kódu nebo konfigurace.
LLM používám jako mentora a buduju si “spellbook”
AI mi vygeneruje logy, kód, konfiguráky plné pojmů, které neznám
U každého z nich se modelu doptám: “Vysvětli mi, co je X a kdy se používá.
Tím si systematicky rozšiřuju slovník “magických slov”, která mi otevírají další úroveň práce s AI.
3. Praktické use-cases z praxe
Podcast ukázal několik konkrétních scénářů, kde AI už dnes nahrazuje lidskou rutinu.
Automatizace párování produktových katalogů
Různí dodavatelé, rozdílné názvy, časté chyby. Manuální párování položek z cizích katalogů s interním katalogem bylo časově náročné a nespolehlivé. Tradiční pravidlová automatizace selhávala (názvy typu „banán“ vs. „žlutý zahnutý banán“).
Nasazení LLM, které páruje položky sémanticky, ne jen podle řetězců. Model chápe, že jde o totéž zboží, i když je popis jiný.
Lidská práce v tomto procesu byla prakticky eliminována.
Zpracování a překlad objednávek z e-mailů
Velkoobchod přijímal objednávky e-mailem v různých jazycích z celé Evropy. Asistentka:
Proof-of-concept AI systému, který:
monitoruje příchozí e-maily,
extrahuje relevantní data,
přeloží je,
zapíše do interního systému.
Plná náhrada rutinní práce asistentky.
Tvorba a správa webu pro netechnické uživatele
Uživatel bez znalosti kódu potřebuje vlastní web.
Uživatel s AI definuje:
byznysový účel,
obsah,
cílové publikum,
požadované funkce.
Exekuční fáze přes agenta typu Cloud Coda
Výsledné specifikace se předají agentovi, který:
vytvoří kód,
nakonfiguruje prostředí,
web nasadí.
Autonomní správa serveru agentem
Správa serverů (útoky, aktualizace, monitoring, disk, paměť) je kontinuální a náročná.
AI agent (Cloud Coda) je nainstalovaný přímo na serveru (např. virtuál v Hetzneru) a má za úkol:
spravovat systém,
odrážet bot útoky,
řešit problémy s diskem a pamětí,
logovat a dokumentovat svou činnost (v konkrétním příkladu si agent psal i vlastní blog o tom, co na serveru řeší).
Výsledek:
Správa serveru se výrazně automatizuje, člověk řeší až výjimky.
Analýza video obsahu (přednášky, podcasty)
Získat klíčové informace z hodinového videa je časově drahé.
Řešení:
video (soubor nebo YouTube odkaz) se nahraje do Google AI Studia,
Gemini 2.5 Pro video zpracuje,
nad obsahem pak lze:
Automatizace zpracování meetingů
Ruční přepis meetingů, sumarizace bodů a úkolů.
Řetězec řešení:
Meeting se nahraje přes Big Blue Button (BBB).
Audio stopa se automaticky přepíše pomocí Gemini Flash.
Přepis se pošle modelu k:
sumarizaci,
vytvoření akčních bodů,
vygenerování úkolů.
Lokální automatizace práce se soubory
Potřebuji pracovat s citlivými soubory (např. Excel, CSV) bez nahrávání do cloudu.
Řešení:
nainstaluji VS Code,
přidám AI plugin (např. R-Code, K-Code),
v pluginu nastavím
API klíč (např. z Google AI Studia),
agent běžící v rámci VS Code získá přístup k lokálním souborům a na přirozený jazyk provádí operace:
analýzy,
transformace,
generování reportů.
4. Nástroje a modely: co používám a proč
4.1 Modely
Claude (Opus & Sonnet)
Denní pracovní kůň, David ho popisuje jako “kámoše”.
Opus je preferovaný pro:
systematický research,
komplexní kódování.
Slabiny:
Použití: Když potřebuji důkladnou analýzu a robustní práci s kódem.
Gemini (2.5 Pro & Flash)
GPT-4o/5 (OpenAI)
Úlohy, kde potřebuji strategické a “taktické” uvažování. Musím ale počítat s potenciálně nestabilní kvalitou v čase.
Open-weight modely (DeepSeek, Llama)
Váhy modelu jsou veřejně k dispozici, ale trénovací data nejsou.
DeepSeek byl zmíněn i jako nástroj geopolitického vlivu.
Llama (Meta) má licenční omezení – největší konkurenční tech firmy ji nesmí použít.
Použití:
Experimenty a specifické lokální deploymenty, vždy v izolovaném prostředí kvůli bezpečnosti.
Cloud Coda
Google AI Studio
VS Code + AI plugin (R-Code, K-Code)
Big Blue Button (BBB)
VirtualBox
5. Technické poznámky a best practices
5.1 Open Source vs. Open Weight
Open Source – mám:
Open Weight – mám jen:
To je zásadní rozdíl pro auditovatelnost a důvěru.
5.2 Bezpečnostní rizika (“spící agenti”)
U open-weight modelů od ne zcela transparentních zdrojů existuje teoretické riziko:
skrytých funkcí (backdoorů),
podmíněných reakcí (“spící agenti”), které se aktivují za specifických podmínek,
odesílání dat ven.
Mitigace:
provoz v izolovaném stroji (VirtualBox),
odpojení od internetu nebo striktní firewall,
oddělení od produkčních systémů.
5.3 Tokenizace, výkon a cena
Tokenizér rozseká text na tokeny.
Angličtina: obvykle ≈ 1 slovo = 1 token.
Čeština: jedno slovo často → více tokenů (flexe, diakritika).
Důsledky:
český text je pro model “delší”,
stejné zadání vyjde dráž,
reálně zmenšuje využitelné kontextové okno.
Proto v technických scénářích volím angličtinu – šetřím tím peníze i výkon.
5.4 Kvantizace (“lobotomie” modelů)
To je důvod, proč se u některých komerčních modelů zdá, že se v čase “zhoršují”.
5.5 Modely uvažují v konceptech
Výzkum Anthropic ukazuje, že modely interně pracují s jazykově nezávislými koncepty.
Konkrétní pozorování u modelu Haiku:
Nepracuje tedy čistě “slovo po slově”, ale nejdřív si vytvoří konceptuální strukturu (rýmy, forma, schéma) a pak ji vypustí v konkrétním jazyce. To je základ sémantického porozumění a překladu.
6. Akční kroky pro IT profesionály
Na základě podcastu se ukazuje, že vstupní bariéra je extrémně nízká. Klíčové je začít.
6.1 Vytvoření nízkonákladového AI prostředí
Varianta A – Cloud (doporučuji pro začátek)
Pořídím si levný VPS (např. Hetzner ≈ €6/měsíc).
Připojím se přes SSH (Windows/macOS mají terminál v základu).
Nainstaluji AI agenta (např. Cloud Coda nebo Gemini CLI).
Zadám první jednoduchý úkol:
„Nainstaluj na tento server Big Blue Button a zprovozni základní instanci.“
Tím získám:
Varianta B – Lokálně (pro práci se soubory)
Nainstaluji VS Code.
Přidám AI plugin (R-Code, K-Code).
Získám
API klíč z
Google AI Studia a nastavím ho v pluginu.
Začnu s jednoduchými úkoly:
6.2 Mindset: jak k tomu přistoupit
V každém výstupu hledám nové pojmy a nechávám si je vysvětlit. Rozšiřuji si slovník a tím i sílu promptů.
Neřeším, že ne každý pokus vede k okamžitému výsledku. Důležitá je kumulace zkušeností – AI interakce je dovednost.
6.3 Fokus na aplikační vrstvu
Hlavní strategické doporučení z podcastu si formuluji takto:
“Nestavím motory, stavím auta.”
Netrénuji vlastní foundation modely.
Využívám existující “motory” (Claude, Gemini, GPT, open-weight).
Soustředím se na:
konkrétní use-cases,
agentní workflow,
integraci do reálných byznys procesů (ERP, CRM, e-mail, meetingy, katalogy),
specializované nástroje pro konkrétní profese (makléři, právníci, marketing).
Tento zápisek beru jako výchozí mapu: co už dnes jde dělat, jaké nástroje k tomu použít a jak nad tím přemýšlet, aby AI nebyla hračka, ale produktivní “spolupracovník” v IT praxi.
Myšlenková mapa