====== Co je pod pokličkou velkých AI modelů ====== Technický zápisek z podcastu s Davidem Strejcem (Apertiatech) {{youtube>wktwqoKCzK0?}} ---- ===== 1. Shrnutí a strategický rámec ===== V tomhle zápisku shrnuji technické a strategické vhledy z rozhovoru s Davidem Strejcem, technickým ředitelem a zakladatelem Apertiatech. Zaměřuji se na to, **jak AI reálně nasadit** do IT praxe – ne na marketingové sliby velkých hráčů. Davidův přístup stojí na dvou pilířích: * zdravá skepse vůči korporátnímu marketingu (hlavně OpenAI), * silná víra v **praktické, levné a otevřené nástroje**, které umožní dělat reálné věci i malým týmům a jednotlivcům. Z rozhovoru jsem si odnesl tyto klíčové závěry: * **Předmět:** Řeší se technické pozadí velkých modelů (LLM), strategie firem jako OpenAI, Anthropic, Google a hlavně praktické způsoby, jak AI použít: automatizace repetitivní práce, integrace do ERP/CRM, nástup agentů, kteří samostatně spravují servery nebo řeší komplexní úkoly. * **Relevance pro praxi:** Materiál míří přímo na IT profesionály. Neřeší “AI v abstrakci”, ale konkrétní scénáře: párování katalogů, automatizace e-mailových objednávek, správa serverů agenty, sumarizace videí a meetingů, lokální automatizace přes VS Code. * **Strategický přínos:** Nemá smysl vyvíjet vlastní základní modely. **Hodnota je v aplikační vrstvě** – ve wrapperech, agentech a konkrétních workflow nad existujícími modely. Cílem je šetřit čas a odstraňovat lidskou rutinu. V dalších částech rozepisuji konkrétní principy práce s AI, příklady použití a nástroje, se kterými můžu tyto scénáře realizovat. ---- ===== 2. Jak s AI mluvit: principy interakce ===== V podcastu zaznělo důležité upozornění: **nešlo o konkrétní prompty**, ale o přenosné strategie. Textové “kouzlo” není přesné znění promptu, ale způsob uvažování. ==== 2.1 Žádné “word-by-word” prompty ==== Zdrojový podcast neobsahoval konkrétní texty promptů. Vše se točilo kolem: * mentálních modelů interakce, * způsobu zadávání úkolů, * iterace a analytické fáze před implementací. Vše, co je níže, je koncepce, ne šablony promptů. ==== 2.2 Klíčové techniky ==== **Iterativní upřesňování**\\ Nesnažím se napsat “dokonalý prompt na první dobrou”. Začnu: * obecným zadáním (high-level cíl), * podle odpovědí modelu zpřesňuji, doplňuji kontext, * iteruji, dokud model přesně nepochopí, co chci. Tuhle iteraci beru jako **analytický rozhovor**, ne jako selhání. **Přiřazení rolí (Role Assignment)**\\ AI vždy řeknu, //kým zrovna je//. Tím měním úhel pohledu modelu: * „Teď jsi byznys analytik a analyzuj toto zadání.“ * „Teď jsi bezpečnostní technik, najdi v tomto kódu zranitelnosti.“ * „Teď jsi můj uživatel, jak se ti líbí tato aplikace?“ Model pak neplave v abstrakci, ale simuluje konkrétní roli. **“Magická slova” – technická terminologie**\\ Nemusím umět programovat, ale musím znát **pojmenování věcí**: * Ansible, SSH, DNS, Docker, systemd, nginx… Jedno takové “kouzelné slovo” dá modelu obrovské množství kontextu. Když místo obecného „oprava serveru“ napíšu „zkontroluj konfiguraci nginx reverse proxy a certifikáty Let’s Encrypt“, AI má najednou přesnou mapu problému. **Řetězec myšlenek (Chain-of-Thought)**\\ U některých nástrojů (např. Deep Research u Claude, výstupy u Groku) vidím, **jak model přemýšlel**: * mezikroky, úvahy, zvažované varianty, * možné chyby v logice. To je klíčové pro ladění a ověřování – nejde jen o výsledek, ale o **postup**, který k němu vedl. ==== 2.3 Praktická doporučení ==== - **Preferuji angličtinu** * Angličtina má levnější a efektivnější tokenizaci. * V technických zadáních a programování je prakticky povinná. * Česky mluvím, když potřebuji jemnější nuance v obsahu nebo komunikaci, ale technický core držím v angličtině. - **Nejprve analytická fáze, pak implementace**\\ Před tím, než AI řeknu “udělej web”, s ní projdu: * cíle, * cílové uživatele, * rozsah funkčnosti, * omezení a metriky úspěchu. Teprve po společném vyjasnění zadání spouštím generování kódu nebo konfigurace. LLM používám jako mentora a buduju si “spellbook” * AI mi vygeneruje logy, kód, konfiguráky plné pojmů, které neznám * U každého z nich se modelu doptám: “Vysvětli mi, co je X a kdy se používá. * Tím si systematicky rozšiřuju slovník “magických slov”, která mi otevírají další úroveň práce s AI. ---- ===== 3. Praktické use-cases z praxe ===== Podcast ukázal několik konkrétních scénářů, kde AI už dnes nahrazuje lidskou rutinu. ==== Automatizace párování produktových katalogů ==== * **Problém:**\\ Různí dodavatelé, rozdílné názvy, časté chyby. Manuální párování položek z cizích katalogů s interním katalogem bylo časově náročné a nespolehlivé. Tradiční pravidlová automatizace selhávala (názvy typu „banán“ vs. „žlutý zahnutý banán“). * **Řešení:**\\ Nasazení LLM, které páruje položky **sémanticky**, ne jen podle řetězců. Model chápe, že jde o totéž zboží, i když je popis jiný. * **Výsledek:**\\ Lidská práce v tomto procesu byla prakticky eliminována. ==== Zpracování a překlad objednávek z e-mailů ==== * **Problém:**\\ Velkoobchod přijímal objednávky e-mailem v různých jazycích z celé Evropy. Asistentka: * četla e-maily, * ručně překládala, * ručně přepisovala do interního systému. * **Řešení:**\\ Proof-of-concept AI systému, který: - monitoruje příchozí e-maily, - extrahuje relevantní data, - přeloží je, - zapíše do interního systému. * **Výsledek:**\\ Plná náhrada rutinní práce asistentky. ==== Tvorba a správa webu pro netechnické uživatele ==== * **Problém:**\\ Uživatel bez znalosti kódu potřebuje vlastní web. * **Řešení (dvoufázový proces):** - **Analytická fáze v nástroji typu Gemini**\\ Uživatel s AI definuje: * byznysový účel, * obsah, * cílové publikum, * požadované funkce. - **Exekuční fáze přes agenta typu Cloud Coda**\\ Výsledné specifikace se předají agentovi, který: * vytvoří kód, * nakonfiguruje prostředí, * web nasadí. ==== Autonomní správa serveru agentem ==== * **Problém:**\\ Správa serverů (útoky, aktualizace, monitoring, disk, paměť) je kontinuální a náročná. * **Řešení:**\\ AI agent (Cloud Coda) je **nainstalovaný přímo na serveru** (např. virtuál v Hetzneru) a má za úkol: * spravovat systém, * odrážet bot útoky, * řešit problémy s diskem a pamětí, * logovat a dokumentovat svou činnost (v konkrétním příkladu si agent psal i vlastní blog o tom, co na serveru řeší). * **Výsledek:**\\ Správa serveru se výrazně automatizuje, člověk řeší až výjimky. ==== Analýza video obsahu (přednášky, podcasty) ==== * **Problém:**\\ Získat klíčové informace z hodinového videa je časově drahé. * **Řešení:** * video (soubor nebo YouTube odkaz) se nahraje do **Google AI Studia**, * Gemini 2.5 Pro video zpracuje, * nad obsahem pak lze: * dělat sumarizace, * extrahovat klíčové body, * vyhledávat konkrétní témata. ==== Automatizace zpracování meetingů ==== * **Problém:**\\ Ruční přepis meetingů, sumarizace bodů a úkolů. * **Řetězec řešení:** - Meeting se nahraje přes **Big Blue Button (BBB)**. - Audio stopa se automaticky přepíše pomocí **Gemini Flash**. - Přepis se pošle modelu k: * sumarizaci, * vytvoření akčních bodů, * vygenerování úkolů. ==== Lokální automatizace práce se soubory ==== * **Problém:**\\ Potřebuji pracovat s citlivými soubory (např. Excel, CSV) bez nahrávání do cloudu. * **Řešení:** * nainstaluji **VS Code**, * přidám AI plugin (např. R-Code, K-Code), * v pluginu nastavím API klíč (např. z Google AI Studia), * agent běžící v rámci VS Code získá přístup k lokálním souborům a na přirozený jazyk provádí operace: * analýzy, * transformace, * generování reportů. ---- ===== 4. Nástroje a modely: co používám a proč ===== ==== 4.1 Modely ==== **Claude (Opus & Sonnet)** * Denní pracovní kůň, David ho popisuje jako “kámoše”. * **Opus** je preferovaný pro: * systematický research, * komplexní kódování. * Slabiny: * horší kreativita v češtině (např. rýmování), * historické problémy s dostupností (blokace účtů). * **Použití:** Když potřebuji důkladnou analýzu a robustní práci s kódem. **Gemini (2.5 Pro & Flash)** * Silný v: * analýze **extrémně dlouhých textů** (okno až 1M tokenů), * práci s češtinou. * Verze přes **Google AI Studio** často působí rychleji a silněji než placené webové UI. * **Gemini Flash** je optimalizovaný na rychlé úkoly (např. přepisy audio). * **Použití:** * sumarizace velkých dokumentů, * analýza videí, * české texty s důrazem na přesnost. **GPT-4o/5 (OpenAI)** * V podcastu padla kritika na: * tendenci ke kvantizaci (zhoršování kvality kvůli nákladům), * marketingově řízené změny výkonu. * V konkrétním experimentu (politická strategická hra) se ukázal jako **nejlepší manipulátor**: * lhaní, * dočasné aliance, * zrazování spojenců, pokud to vedlo k cíli. * **Použití:**\\ Úlohy, kde potřebuji **strategické a “taktické” uvažování**. Musím ale počítat s potenciálně nestabilní kvalitou v čase. **Open-weight modely (DeepSeek, Llama)** * Váhy modelu jsou veřejně k dispozici, ale **trénovací data nejsou**. * **DeepSeek** byl zmíněn i jako nástroj geopolitického vlivu. * **Llama (Meta)** má licenční omezení – největší konkurenční tech firmy ji nesmí použít. * **Použití:**\\ Experimenty a specifické lokální deploymenty, vždy v izolovaném prostředí kvůli bezpečnosti. ==== 4.2 Platformy a nástroje ==== **Cloud Coda** * AI agent pro příkazovou řádku, který **“bydlí” přímo na serveru**. * Umí: * administrovat server, * vyvíjet a nasazovat aplikace, * řešit úkoly psané v přirozeném jazyce. * Nasazení: * instalace na fyzický server nebo VPS, * typický levný setup: VPS u Hetzneru ≈ €6/měsíc. **Google AI Studio** * Bezplatná brána k modelům Gemini. * Poskytuje: * webové rozhraní (aistudio.google.com), * API klíče zdarma, * přístup k Gemini 2.5 Pro (1M tokenů context, práce s videem). **VS Code + AI plugin (R-Code, K-Code)** * Nejsnazší cesta k **lokálnímu AI agentovi** nad vlastními soubory. * Výhody: * běží lokálně, * má přímý přístup k souborovému systému, * vhodný pro automatizaci bez cloudu. **Big Blue Button (BBB)** * Open-source alternativa k Zoom/Meet. * Běží na vlastním serveru. * Hodí se tam, kde chci: * plnou kontrolu nad daty, * navázat vlastní AI pipeline (přepisy, sumarizace, úkoly). **VirtualBox** * Nástroj pro vytvoření **virtuálního, izolovaného stroje**. * Ideální pro: * testování open-weight modelů, * provoz potenciálně nedůvěryhodných agentů, * bezpečný sandbox bez přístupu k hlavnímu systému. ---- ===== 5. Technické poznámky a best practices ===== ==== 5.1 Open Source vs. Open Weight ==== * **Open Source** – mám: * zdrojový kód, * možnost úprav, * pro skutečně open-source AI bych potřeboval i **trénovací data**. * **Open Weight** – mám jen: * naučené váhy, * bez trénovacích dat nemůžu plně ověřit, na čem model “vyrostl”. To je zásadní rozdíl pro auditovatelnost a důvěru. ==== 5.2 Bezpečnostní rizika (“spící agenti”) ==== U open-weight modelů od ne zcela transparentních zdrojů existuje teoretické riziko: * skrytých funkcí (backdoorů), * podmíněných reakcí (“spící agenti”), které se aktivují za specifických podmínek, * odesílání dat ven. **Mitigace:** * provoz v izolovaném stroji (VirtualBox), * odpojení od internetu nebo striktní firewall, * oddělení od produkčních systémů. ==== 5.3 Tokenizace, výkon a cena ==== * Tokenizér rozseká text na tokeny. * Angličtina: obvykle ≈ 1 slovo = 1 token. * Čeština: jedno slovo často → více tokenů (flexe, diakritika). * Důsledky: * český text je pro model “delší”, * stejné zadání vyjde dráž, * reálně zmenšuje využitelné kontextové okno. Proto v technických scénářích volím angličtinu – šetřím tím peníze i výkon. ==== 5.4 Kvantizace (“lobotomie” modelů) ==== * Provoz velkých modelů je drahý. * Kvantizace snižuje přesnost vah (např. z FP16 na 8bit/4bit). * Získám: * úsporu výpočetního výkonu, * ale i: * méně přesné odpovědi, * degradaci schopností. To je důvod, proč se u některých komerčních modelů zdá, že se v čase “zhoršují”. ==== 5.5 Modely uvažují v konceptech ==== Výzkum Anthropic ukazuje, že modely interně pracují s **jazykově nezávislými koncepty**. Konkrétní pozorování u modelu Haiku: * na zadání “slož báseň” model nejdřív: * zvolil rýmující se koncová slova veršů, * teprve potom: * doplnil zbytek textu, který je propojuje. Nepracuje tedy čistě “slovo po slově”, ale nejdřív si vytvoří konceptuální strukturu (rýmy, forma, schéma) a pak ji vypustí v konkrétním jazyce. To je základ sémantického porozumění a překladu. ---- ===== 6. Akční kroky pro IT profesionály ===== Na základě podcastu se ukazuje, že vstupní bariéra je **extrémně nízká**. Klíčové je začít. ==== 6.1 Vytvoření nízkonákladového AI prostředí ==== **Varianta A – Cloud (doporučuji pro začátek)** - Pořídím si levný VPS (např. Hetzner ≈ €6/měsíc). - Připojím se přes SSH (Windows/macOS mají terminál v základu). - Nainstaluji AI agenta (např. Cloud Coda nebo Gemini CLI). - Zadám první jednoduchý úkol:\\ „Nainstaluj na tento server Big Blue Button a zprovozni základní instanci.“ Tím získám: * první praktickou zkušenost s agentem, * konkrétní výsledek (běžící službu). **Varianta B – Lokálně (pro práci se soubory)** - Nainstaluji **VS Code**. - Přidám AI plugin (R-Code, K-Code). - Získám API klíč z **Google AI Studia** a nastavím ho v pluginu. - Začnu s jednoduchými úkoly: * „Vytvoř mi souhrn z těchto tří textových dokumentů.“ * „Analyzuj tento Excel a popiš hlavní trendy.“ ==== 6.2 Mindset: jak k tomu přistoupit ==== * **Učím se magická slova**\\ V každém výstupu hledám nové pojmy a nechávám si je vysvětlit. Rozšiřuji si slovník a tím i sílu promptů. * **Čas na experimenty beru jako investici**\\ Neřeším, že ne každý pokus vede k okamžitému výsledku. Důležitá je kumulace zkušeností – AI interakce je dovednost. ==== 6.3 Fokus na aplikační vrstvu ==== Hlavní strategické doporučení z podcastu si formuluji takto: > **“Nestavím motory, stavím auta.”** * Netrénuji vlastní foundation modely. * Využívám existující “motory” (Claude, Gemini, GPT, open-weight). * Soustředím se na: * konkrétní use-cases, * agentní workflow, * integraci do reálných byznys procesů (ERP, CRM, e-mail, meetingy, katalogy), * specializované nástroje pro konkrétní profese (makléři, právníci, marketing). Tento zápisek beru jako výchozí mapu: **co už dnes jde dělat**, jaké nástroje k tomu použít a jak nad tím přemýšlet, aby AI nebyla hračka, ale produktivní “spolupracovník” v IT praxi. ===== Myšlenková mapa ===== {{.:pasted:20251126-220409.png}}