PEPAGI
PEPAGI je open-source multi-agentní orchestrátor napsaný v TypeScriptu. Projekt ho popisuje jako AGI-like orchestration platformu, ale prakticky jde hlavně o řídicí vrstvu, která přijme úkol, rozloží ho na menší části, pošle je vhodným modelům nebo nástrojům a průběžně vyhodnocuje výsledek.
Co to je
Z README vychází, že jádrem systému je centrální Mediator, který funguje jako koordinátor celé úlohy. Nepoužívá se jen jeden LLM, ale kombinace více providerů podle ceny, schopností a obtížnosti problému.
Projekt míří na situace, kde nestačí jednorázový chat nad jedním modelem, ale je potřeba:
- rozpad složitější úlohy na více kroků
- routing mezi více modely
- opakované ověřování výsledků
- práce s nástroji a externími integracemi
- dlouhodobější běh s pamětí a historií
Podle repozitáře může PEPAGI běžet jako CLI nástroj, daemon pro chatovací platformy nebo MCP server pro další integrace.
Jak funguje architektura
README popisuje PEPAGI jako vícevrstvý systém. Prakticky v něm jde hlavně o tyto části:
- Mediator – centrální mozek, který přijme úkol, rozhodne o rozkladu práce a řídí další kroky.
- DifficultyRouter – určuje obtížnost úlohy a vybírá nejlevnější model, který má šanci ji zvládnout.
- HierarchicalPlanner – rozkládá větší zadání na strategickou, taktickou a operativní úroveň.
- AgentPool – vrstva pro různé poskytovatele modelů a jejich kombinování.
- WorkerExecutor – spouští jednotlivé pracovní kroky a nástroje.
- WorldModel – dopředu simuluje možné výsledky a pomáhá vybírat vhodný postup.
- MemorySystem – uchovává historii úloh, znalosti a postupy.
- Metacognition – průběžně sleduje jistotu odpovědí, umí vyvolat další ověření a zpětnou reflexi.
- SecurityGuard a další obranné vrstvy – filtrují rizikové vstupy, chrání práci s nástroji a hlídají náklady.
Důležité je, že PEPAGI není vlastní foundation model. Je to orchestrace nad cizími modely a nástroji.
Podporované modely a platformy
Podle README a package.json projekt podporuje tyto AI providery a režimy běhu:
| Oblast | Podpora | Poznámka |
|---|---|---|
| AI provideri | Anthropic Claude, OpenAI GPT, Google Gemini, Ollama, LM Studio | lokální i vzdálené modely |
| Rozhraní | CLI, Telegram, Discord, WhatsApp, iMessage, MCP | různé vstupní kanály nad stejným orchestrem |
| Runtime | Node.js 22+ | uvedeno v engines |
| Jazyk projektu | TypeScript | hlavní implementace |
| Licence | MIT | podle repozitáře |
README zároveň zmiňuje, že MCP server běží na portu 3099 a lze ho použít pro integraci s externími klienty nebo nástroji.
Paměť, plánování a vyhodnocování
PEPAGI se snaží řešit víc než jen jednorázové volání modelu. README popisuje několik vrstev paměti:
- Working memory – zhuštěný kontext aktuální úlohy
- Episodic memory – historie dokončených úloh
- Semantic memory – extrahovaná fakta
- Procedural memory – naučené více-krokové postupy
- Meta-memory – sledování spolehlivosti znalostí v čase
Nad tím je postavená metakognitivní vrstva s prvky jako:
- sledování confidence
- cross-model verification
- post-task reflexe
- A/B testování strategií
- extrakce úspěšných postupů do znovupoužitelných skills
- watchdog pro detekci smyček, driftu nebo zbytečně drahého běhu
Z praktického pohledu to znamená, že systém nemá jen „odpovědět“, ale i rozhodnout, jestli výsledku věří, zda je potřeba ověření jiným modelem a co si z daného běhu ponechat pro příště.
Nástroje a integrace
V README je uvedený i vlastní tool layer pro worker agenty. Projekt zmiňuje například:
bashpro shell příkazy- čtení a zápis souborů
- stahování webu a web search
- browser automation přes Playwright
- kalendář
- Spotify
- YouTube
- Home Assistant
- počasí
- Notion
- Docker
To je důležité proto, že PEPAGI nemá být jen chat nad API, ale spíš agentický runtime, který může vykonávat více typů úloh podle povolených nástrojů.
Bezpečnost
Bezpečnostní vrstva je v projektu poměrně výrazná. SECURITY.md uvádí 35 kategorií hrozeb a obranných mechanismů. Mezi prakticky zajímavé body patří hlavně:
- ochrana proti prompt injection
- prevence úniku credentialů
- omezení zneužití nástrojů
- izolace session a práce s pamětí
- HMAC-SHA256 autentizace mezi agenty
- kill switch proti přerůstání nákladů
- rate limiting
- ochrana proti poisoning útokům v paměti nebo RAG vrstvách
- sanitizace výstupů a metadata scrubber
Security dokument také uvádí konkrétní limity a provozní pravidla, například:
- omezení hloubky dekompozice na 3 úrovně a 10 subtasků
- rate limiting 20 volání za minutu
- doporučení držet Ollamu jen na
localhost - požadavek na
MCP_TOKENpro MCP server - hodinové adversarial self-testing v daemon režimu
Projekt navíc mapuje bezpečnost vůči OWASP ASI, MITRE ATLAS a NIST AI 600-1. To je potřeba chápat jako tvrzení autorů projektu, ne jako nezávisle ověřenou certifikaci.
Instalace a spuštění
Základní instalace pro Linux a macOS je podle README tato:
git clone https://github.com/Promptlab37/PEPAGI.git cd pepagi ./install.sh
Ruční instalace:
git clone https://github.com/Promptlab37/PEPAGI.git cd pepagi npm install npm run setup
Základní spuštění v CLI:
npm start
Jednorázový úkol:
npm start -- "summarize the latest news about AI"
Spuštění daemon režimu:
npm run daemon
TUI dashboard:
npm run tui
README uvádí i pomocné skripty pro běh na pozadí, například daemon:bg, daemon:stop a daemon:logs.
Konfigurace
Podle README a .env.example je potřeba nastavit alespoň jednoho AI providera. Konfigurace probíhá přes npm run setup nebo ručně přes .env a ~/.pepagi/config.json.
Typické proměnné prostředí:
ANTHROPIC_API_KEY=... OPENAI_API_KEY=... GOOGLE_API_KEY=... TELEGRAM_BOT_TOKEN=... TELEGRAM_ALLOWED_USERS=... DISCORD_BOT_TOKEN=... PEPAGI_DATA_DIR=~/.pepagi PEPAGI_MANAGER_MODEL=claude-opus-4-5-20251101 PEPAGI_MAX_TASK_COST=1.0 PEPAGI_MAX_SESSION_COST=10.0 PEPAGI_REQUIRE_APPROVAL=file_delete,git_push,network_external
Pro Claude lze podle README použít i OAuth přes Claude Code CLI místo klasického API klíče:
npm install -g @anthropic-ai/claude-code claude login
Data a perzistence
README uvádí, že persistentní data se ukládají do ~/.pepagi/. Patří sem hlavně:
config.json– konfiguracetasks.json– aktivní úlohygoals.json– plánované cílememory/episodes.jsonl– historie dokončených úlohmemory/knowledge.jsonl– naučená faktamemory/procedures.jsonl– naučené postupymemory/reflections.jsonl– reflexe po úloháchlogs/– strukturované logyaudit.jsonl– auditní stopa
Z praktického pohledu je to důležité hlavně kvůli tomu, že jde o dlouhodobější agentní runtime, ne o stateless skript bez historie.
Co je na projektu zajímavé
PEPAGI je zajímavý hlavně tím, že spojuje několik trendů současně:
- multi-agentní orchestraci
- model routing podle ceny a obtížnosti
- dlouhodobější paměť
- plánování více kroků dopředu
- provoz přes chatovací platformy i CLI
- důraz na bezpečnost agentických workflow
Repozitář navíc obsahuje i vrstvu, kterou autoři označují jako consciousness system – tedy phenomenal state, inner monologue a self-model. To je potřeba brát hlavně jako interní architektonický koncept projektu, ne jako důkaz skutečného „vědomí“.
Na co dát pozor
- Projekt je ambiciózní a široký – neřeší jen chat, ale routing modelů, paměť, bezpečnost, nástroje, messaging i MCP.
- Řada tvrzení je potřeba chápat jako claim maintainera – například AGI-like framing nebo compliance mapování vůči bezpečnostním frameworkům.
- Setup není úplně malý – pro plné využití je potřeba řešit API klíče, chat platformy, lokální modely nebo bezpečnostní limity.
- České README obsahuje rozdílné clone URL – v README.cs.md jsou v některých příkladech uvedené cesty
AiTaskForce/pepagi, zatímco hlavní repozitář jePromptlab37/PEPAGI. Před instalací dává smysl ověřit aktuální doporučenou cestu.