it:ai:prakticke-aplikace:co-je-pod-poklickou-velkych-ai-modelu

Co je pod pokličkou velkých AI modelů

Technický zápisek z podcastu s Davidem Strejcem (Apertiatech)


V tomhle zápisku shrnuji technické a strategické vhledy z rozhovoru s Davidem Strejcem, technickým ředitelem a zakladatelem Apertiatech. Zaměřuji se na to, jak AI reálně nasadit do IT praxe – ne na marketingové sliby velkých hráčů.

Davidův přístup stojí na dvou pilířích:

  • zdravá skepse vůči korporátnímu marketingu (hlavně OpenAI),
  • silná víra v praktické, levné a otevřené nástroje, které umožní dělat reálné věci i malým týmům a jednotlivcům.

Z rozhovoru jsem si odnesl tyto klíčové závěry:

  • Předmět: Řeší se technické pozadí velkých modelů (LLM), strategie firem jako OpenAI, Anthropic, Google a hlavně praktické způsoby, jak AI použít: automatizace repetitivní práce, integrace do ERP/CRM, nástup agentů, kteří samostatně spravují servery nebo řeší komplexní úkoly.
  • Relevance pro praxi: Materiál míří přímo na IT profesionály. Neřeší “AI v abstrakci”, ale konkrétní scénáře: párování katalogů, automatizace e-mailových objednávek, správa serverů agenty, sumarizace videí a meetingů, lokální automatizace přes VS Code.
  • Strategický přínos: Nemá smysl vyvíjet vlastní základní modely. Hodnota je v aplikační vrstvě – ve wrapperech, agentech a konkrétních workflow nad existujícími modely. Cílem je šetřit čas a odstraňovat lidskou rutinu.

V dalších částech rozepisuji konkrétní principy práce s AI, příklady použití a nástroje, se kterými můžu tyto scénáře realizovat.


V podcastu zaznělo důležité upozornění: nešlo o konkrétní prompty, ale o přenosné strategie. Textové “kouzlo” není přesné znění promptu, ale způsob uvažování.

Zdrojový podcast neobsahoval konkrétní texty promptů. Vše se točilo kolem:

  • mentálních modelů interakce,
  • způsobu zadávání úkolů,
  • iterace a analytické fáze před implementací.

Vše, co je níže, je koncepce, ne šablony promptů.

Iterativní upřesňování
Nesnažím se napsat “dokonalý prompt na první dobrou”. Začnu:

  • obecným zadáním (high-level cíl),
  • podle odpovědí modelu zpřesňuji, doplňuji kontext,
  • iteruji, dokud model přesně nepochopí, co chci.

Tuhle iteraci beru jako analytický rozhovor, ne jako selhání.

Přiřazení rolí (Role Assignment)
AI vždy řeknu, kým zrovna je. Tím měním úhel pohledu modelu:

  • „Teď jsi byznys analytik a analyzuj toto zadání.“
  • „Teď jsi bezpečnostní technik, najdi v tomto kódu zranitelnosti.“
  • „Teď jsi můj uživatel, jak se ti líbí tato aplikace?“

Model pak neplave v abstrakci, ale simuluje konkrétní roli.

“Magická slova” – technická terminologie
Nemusím umět programovat, ale musím znát pojmenování věcí:

  • Ansible, SSH, DNS, Docker, systemd, nginx…

Jedno takové “kouzelné slovo” dá modelu obrovské množství kontextu. Když místo obecného „oprava serveru“ napíšu „zkontroluj konfiguraci nginx reverse proxy a certifikáty Let’s Encrypt“, AI má najednou přesnou mapu problému.

Řetězec myšlenek (Chain-of-Thought)
U některých nástrojů (např. Deep Research u Claude, výstupy u Groku) vidím, jak model přemýšlel:

  • mezikroky, úvahy, zvažované varianty,
  • možné chyby v logice.

To je klíčové pro ladění a ověřování – nejde jen o výsledek, ale o postup, který k němu vedl.

  1. Preferuji angličtinu
    • Angličtina má levnější a efektivnější tokenizaci.
    • V technických zadáních a programování je prakticky povinná.
    • Česky mluvím, když potřebuji jemnější nuance v obsahu nebo komunikaci, ale technický core držím v angličtině.
  2. Nejprve analytická fáze, pak implementace

Před tím, než AI řeknu “udělej web”, s ní projdu:

  • cíle,
  • cílové uživatele,
  • rozsah funkčnosti,
  • omezení a metriky úspěchu.

Teprve po společném vyjasnění zadání spouštím generování kódu nebo konfigurace.

LLM používám jako mentora a buduju si “spellbook”

  • AI mi vygeneruje logy, kód, konfiguráky plné pojmů, které neznám
  • U každého z nich se modelu doptám: “Vysvětli mi, co je X a kdy se používá.
  • Tím si systematicky rozšiřuju slovník “magických slov”, která mi otevírají další úroveň práce s AI.

Podcast ukázal několik konkrétních scénářů, kde AI už dnes nahrazuje lidskou rutinu.

  • Problém:

Různí dodavatelé, rozdílné názvy, časté chyby. Manuální párování položek z cizích katalogů s interním katalogem bylo časově náročné a nespolehlivé. Tradiční pravidlová automatizace selhávala (názvy typu „banán“ vs. „žlutý zahnutý banán“).

  • Řešení:

Nasazení LLM, které páruje položky sémanticky, ne jen podle řetězců. Model chápe, že jde o totéž zboží, i když je popis jiný.

  • Výsledek:

Lidská práce v tomto procesu byla prakticky eliminována.

  • Problém:

Velkoobchod přijímal objednávky e-mailem v různých jazycích z celé Evropy. Asistentka:

  • četla e-maily,
  • ručně překládala,
  • ručně přepisovala do interního systému.
  • Řešení:

Proof-of-concept AI systému, který:

  1. monitoruje příchozí e-maily,
  2. extrahuje relevantní data,
  3. přeloží je,
  4. zapíše do interního systému.
  • Výsledek:

Plná náhrada rutinní práce asistentky.

  • Problém:

Uživatel bez znalosti kódu potřebuje vlastní web.

  • Řešení (dvoufázový proces):
    1. Analytická fáze v nástroji typu Gemini

Uživatel s AI definuje:

  • byznysový účel,
  • obsah,
  • cílové publikum,
  • požadované funkce.
  1. Exekuční fáze přes agenta typu Cloud Coda

Výsledné specifikace se předají agentovi, který:

  • vytvoří kód,
  • nakonfiguruje prostředí,
  • web nasadí.
  • Problém:

Správa serverů (útoky, aktualizace, monitoring, disk, paměť) je kontinuální a náročná.

  • Řešení:

AI agent (Cloud Coda) je nainstalovaný přímo na serveru (např. virtuál v Hetzneru) a má za úkol:

  • spravovat systém,
  • odrážet bot útoky,
  • řešit problémy s diskem a pamětí,
  • logovat a dokumentovat svou činnost (v konkrétním příkladu si agent psal i vlastní blog o tom, co na serveru řeší).
  • Výsledek:

Správa serveru se výrazně automatizuje, člověk řeší až výjimky.

  • Problém:

Získat klíčové informace z hodinového videa je časově drahé.

  • Řešení:
    • video (soubor nebo YouTube odkaz) se nahraje do Google AI Studia,
    • Gemini 2.5 Pro video zpracuje,
    • nad obsahem pak lze:
      • dělat sumarizace,
      • extrahovat klíčové body,
      • vyhledávat konkrétní témata.
  • Problém:

Ruční přepis meetingů, sumarizace bodů a úkolů.

  • Řetězec řešení:
    1. Meeting se nahraje přes Big Blue Button (BBB).
    2. Audio stopa se automaticky přepíše pomocí Gemini Flash.
    3. Přepis se pošle modelu k:
      • sumarizaci,
      • vytvoření akčních bodů,
      • vygenerování úkolů.
  • Problém:

Potřebuji pracovat s citlivými soubory (např. Excel, CSV) bez nahrávání do cloudu.

  • Řešení:
    • nainstaluji VS Code,
    • přidám AI plugin (např. R-Code, K-Code),
    • v pluginu nastavím API klíč (např. z Google AI Studia),
    • agent běžící v rámci VS Code získá přístup k lokálním souborům a na přirozený jazyk provádí operace:
      • analýzy,
      • transformace,
      • generování reportů.

Claude (Opus & Sonnet)

  • Denní pracovní kůň, David ho popisuje jako “kámoše”.
  • Opus je preferovaný pro:
    • systematický research,
    • komplexní kódování.
  • Slabiny:
    • horší kreativita v češtině (např. rýmování),
    • historické problémy s dostupností (blokace účtů).
  • Použití: Když potřebuji důkladnou analýzu a robustní práci s kódem.

Gemini (2.5 Pro & Flash)

  • Silný v:
    • analýze extrémně dlouhých textů (okno až 1M tokenů),
    • práci s češtinou.
  • Verze přes Google AI Studio často působí rychleji a silněji než placené webové UI.
  • Gemini Flash je optimalizovaný na rychlé úkoly (např. přepisy audio).
  • Použití:
    • sumarizace velkých dokumentů,
    • analýza videí,
    • české texty s důrazem na přesnost.

GPT-4o/5 (OpenAI)

  • V podcastu padla kritika na:
    • tendenci ke kvantizaci (zhoršování kvality kvůli nákladům),
    • marketingově řízené změny výkonu.
  • V konkrétním experimentu (politická strategická hra) se ukázal jako nejlepší manipulátor:
    • lhaní,
    • dočasné aliance,
    • zrazování spojenců, pokud to vedlo k cíli.
  • Použití:

Úlohy, kde potřebuji strategické a “taktické” uvažování. Musím ale počítat s potenciálně nestabilní kvalitou v čase.

Open-weight modely (DeepSeek, Llama)

  • Váhy modelu jsou veřejně k dispozici, ale trénovací data nejsou.
  • DeepSeek byl zmíněn i jako nástroj geopolitického vlivu.
  • Llama (Meta) má licenční omezení – největší konkurenční tech firmy ji nesmí použít.
  • Použití:

Experimenty a specifické lokální deploymenty, vždy v izolovaném prostředí kvůli bezpečnosti.

Cloud Coda

  • AI agent pro příkazovou řádku, který “bydlí” přímo na serveru.
  • Umí:
    • administrovat server,
    • vyvíjet a nasazovat aplikace,
    • řešit úkoly psané v přirozeném jazyce.
  • Nasazení:
    • instalace na fyzický server nebo VPS,
    • typický levný setup: VPS u Hetzneru ≈ €6/měsíc.

Google AI Studio

  • Bezplatná brána k modelům Gemini.
  • Poskytuje:
    • webové rozhraní (aistudio.google.com),
    • API klíče zdarma,
    • přístup k Gemini 2.5 Pro (1M tokenů context, práce s videem).

VS Code + AI plugin (R-Code, K-Code)

  • Nejsnazší cesta k lokálnímu AI agentovi nad vlastními soubory.
  • Výhody:
    • běží lokálně,
    • má přímý přístup k souborovému systému,
    • vhodný pro automatizaci bez cloudu.

Big Blue Button (BBB)

  • Open-source alternativa k Zoom/Meet.
  • Běží na vlastním serveru.
  • Hodí se tam, kde chci:
    • plnou kontrolu nad daty,
    • navázat vlastní AI pipeline (přepisy, sumarizace, úkoly).

VirtualBox

  • Nástroj pro vytvoření virtuálního, izolovaného stroje.
  • Ideální pro:
    • testování open-weight modelů,
    • provoz potenciálně nedůvěryhodných agentů,
    • bezpečný sandbox bez přístupu k hlavnímu systému.

  • Open Source – mám:
    • zdrojový kód,
    • možnost úprav,
    • pro skutečně open-source AI bych potřeboval i trénovací data.
  • Open Weight – mám jen:
    • naučené váhy,
    • bez trénovacích dat nemůžu plně ověřit, na čem model “vyrostl”.

To je zásadní rozdíl pro auditovatelnost a důvěru.

U open-weight modelů od ne zcela transparentních zdrojů existuje teoretické riziko:

  • skrytých funkcí (backdoorů),
  • podmíněných reakcí (“spící agenti”), které se aktivují za specifických podmínek,
  • odesílání dat ven.

Mitigace:

  • provoz v izolovaném stroji (VirtualBox),
  • odpojení od internetu nebo striktní firewall,
  • oddělení od produkčních systémů.
  • Tokenizér rozseká text na tokeny.
  • Angličtina: obvykle ≈ 1 slovo = 1 token.
  • Čeština: jedno slovo často → více tokenů (flexe, diakritika).
  • Důsledky:
    • český text je pro model “delší”,
    • stejné zadání vyjde dráž,
    • reálně zmenšuje využitelné kontextové okno.

Proto v technických scénářích volím angličtinu – šetřím tím peníze i výkon.

  • Provoz velkých modelů je drahý.
  • Kvantizace snižuje přesnost vah (např. z FP16 na 8bit/4bit).
  • Získám:
    • úsporu výpočetního výkonu,
    • ale i:
      • méně přesné odpovědi,
      • degradaci schopností.

To je důvod, proč se u některých komerčních modelů zdá, že se v čase “zhoršují”.

Výzkum Anthropic ukazuje, že modely interně pracují s jazykově nezávislými koncepty.

Konkrétní pozorování u modelu Haiku:

  • na zadání “slož báseň” model nejdřív:
    • zvolil rýmující se koncová slova veršů,
  • teprve potom:
    • doplnil zbytek textu, který je propojuje.

Nepracuje tedy čistě “slovo po slově”, ale nejdřív si vytvoří konceptuální strukturu (rýmy, forma, schéma) a pak ji vypustí v konkrétním jazyce. To je základ sémantického porozumění a překladu.


Na základě podcastu se ukazuje, že vstupní bariéra je extrémně nízká. Klíčové je začít.

Varianta A – Cloud (doporučuji pro začátek)

  1. Pořídím si levný VPS (např. Hetzner ≈ €6/měsíc).
  2. Připojím se přes SSH (Windows/macOS mají terminál v základu).
  3. Nainstaluji AI agenta (např. Cloud Coda nebo Gemini CLI).
  4. Zadám první jednoduchý úkol:

„Nainstaluj na tento server Big Blue Button a zprovozni základní instanci.“

Tím získám:

  • první praktickou zkušenost s agentem,
  • konkrétní výsledek (běžící službu).

Varianta B – Lokálně (pro práci se soubory)

  1. Nainstaluji VS Code.
  2. Přidám AI plugin (R-Code, K-Code).
  3. Získám API klíč z Google AI Studia a nastavím ho v pluginu.
  4. Začnu s jednoduchými úkoly:
    • „Vytvoř mi souhrn z těchto tří textových dokumentů.“
    • „Analyzuj tento Excel a popiš hlavní trendy.“
  • Učím se magická slova

V každém výstupu hledám nové pojmy a nechávám si je vysvětlit. Rozšiřuji si slovník a tím i sílu promptů.

  • Čas na experimenty beru jako investici

Neřeším, že ne každý pokus vede k okamžitému výsledku. Důležitá je kumulace zkušeností – AI interakce je dovednost.

Hlavní strategické doporučení z podcastu si formuluji takto:

“Nestavím motory, stavím auta.”
  • Netrénuji vlastní foundation modely.
  • Využívám existující “motory” (Claude, Gemini, GPT, open-weight).
  • Soustředím se na:
    • konkrétní use-cases,
    • agentní workflow,
    • integraci do reálných byznys procesů (ERP, CRM, e-mail, meetingy, katalogy),
    • specializované nástroje pro konkrétní profese (makléři, právníci, marketing).

Tento zápisek beru jako výchozí mapu: co už dnes jde dělat, jaké nástroje k tomu použít a jak nad tím přemýšlet, aby AI nebyla hračka, ale produktivní “spolupracovník” v IT praxi.

  • it/ai/prakticke-aplikace/co-je-pod-poklickou-velkych-ai-modelu.txt
  • Poslední úprava: 2025/11/26 22:04
  • autor: Petr Nosek