Zobrazit stránkuStarší verzeZpětné odkazyNahoru Tato stránka je pouze pro čtení. Můžete si pouze prohlédnout zdrojový kód, ale ne ho měnit. Zeptejte se správce, pokud si myslíte, že něco není v pořádku. ====== OpenAI Privacy Filter ====== //Vytvořeno: **27.4.2026** | Aktualizováno: **~~LASTMOD~~**// [[https://openai.com/cs-CZ/index/introducing-openai-privacy-filter/|OpenAI Privacy Filter]] je otevřený model pro detekci a maskování osobně identifikovatelných informací v textu. Model je dostupný na [[https://huggingface.co/openai/privacy-filter|Hugging Face]] pod licencí Apache 2.0 a je určený hlavně pro lokální nebo on-premise zpracování dat před tím, než se text pošle do dalších systémů. ===== Co projekt řeší ===== Privacy Filter slouží jako mezivrstva pro snížení rizika, že se do logů, indexů, trénovacích dat nebo AI nástrojů dostanou citlivé údaje. Typické použití je vyčištění textu před: * odesláním do LLM, * indexací do RAG systému, * ukládáním aplikačních logů, * sdílením dokumentů, * přípravou dat pro trénink nebo fine-tuning, * kontrolou kódu a konfigurací na přítomnost tajných údajů. Nejde ale o právní garanci anonymizace ani o kompletní compliance nástroj. OpenAI ho popisuje jako pomůcku pro redakci a minimalizaci dat, která má být součástí širšího návrhu ochrany soukromí. ===== Jak Privacy Filter funguje ===== ==== Token classification místo generování textu ==== Privacy Filter není chatbot ani běžný generativní model. Funguje jako model pro klasifikaci tokenů: - vstupní text rozdělí na tokeny, - pro každý token odhadne, zda patří do citlivé kategorie, - sousední označené tokeny spojí do souvislých úseků, - výsledné úseky vrátí jako nalezené entity nebo je zamaskuje. Model tedy nevymýšlí novou odpověď. Chová se spíš jako kontextově citlivý zvýrazňovač osobních a tajných údajů. OpenAI uvádí, že model je obousměrný klasifikátor tokenů s dekódováním rozsahů. Po klasifikaci jednotlivých tokenů používá omezený Viterbiho dekodér, který pomáhá vytvořit souvislé a konzistentní hranice maskovaných úseků. ==== Detekované kategorie ==== Model rozpoznává osm kategorií: * ''account_number'' – čísla účtů, platební karty, bankovní údaje, * ''private_address'' – soukromé adresy, * ''private_email'' – e-mailové adresy, * ''private_person'' – jména soukromých osob, * ''private_phone'' – telefonní čísla, * ''private_url'' – soukromé URL, * ''private_date'' – soukromá data, * ''secret'' – hesla, API klíče a podobné tajné hodnoty. Příklad vstupu: <code> My name is Alice Smith and my email is alice@example.com. </code> Výstup může označit například jméno jako ''private_person'' a e-mail jako ''private_email''. Výsledné maskování pak může vypadat takto: <code> My name is [PRIVATE_PERSON] and my email is [PRIVATE_EMAIL]. </code> ===== Spuštění na vlastním počítači ===== Ano, Privacy Filter je možné spustit lokálně. Nevyžaduje odesílání nefiltrovaných dat do OpenAI API. Oficiální repozitář [[https://github.com/openai/privacy-filter|openai/privacy-filter na GitHubu]] obsahuje lokální CLI, Python API, evaluační nástroje a podporu pro fine-tuning. Základní instalace podle GitHub repozitáře: <code bash> git clone https://github.com/openai/privacy-filter cd privacy-filter pip install -e . </code> Jednorázové spuštění přes CLI: <code bash> opf "Alice was born on 1990-01-02." </code> Spuštění na CPU: <code bash> opf --device cpu "Alice was born on 1990-01-02." </code> Zpracování souboru: <code bash> opf -f /path/to/file </code> Použití přes Hugging Face Transformers: <code python> from transformers import pipeline classifier = pipeline( task="token-classification", model="openai/privacy-filter", ) classifier("My name is Alice Smith") </code> Na Hugging Face je uvedená i varianta přes ''Transformers.js'' s WebGPU, takže model může běžet i v prohlížeči, pokud má prohlížeč a hardware potřebnou podporu. ===== Náročnost na výkon ===== OpenAI uvádí, že model má 1,5 miliardy parametrů celkem a z toho 50 milionů aktivních parametrů. Je tedy malý ve srovnání s velkými generativními LLM, ale pořád jde o neuronový model, ne o jednoduchý regex. Praktické dopady: * krátké texty lze vyzkoušet i na běžném notebooku, * CPU režim funguje, ale bude pomalejší než GPU, * pro dávkové zpracování větších objemů textu je vhodnější GPU, * delší vstupy a vyšší přesnost výpočtů zvyšují nároky na paměť, * WebGPU/kvantizované varianty mohou být vhodnější pro lehčí lokální použití. Model podporuje dlouhý kontext až 128 000 tokenů. To ale neznamená, že každý počítač pohodlně zpracuje takto dlouhé dokumenty. Dlouhý kontext je schopnost modelu, zatímco reálná rychlost a spotřeba paměti závisí na použitém zařízení, datovém typu, implementaci a délce vstupu. ===== Co to přináší oproti regexům ===== Klasická pravidla a regexy dobře fungují pro pevné formáty, například e-mailové adresy nebo telefonní čísla. Horší je to u údajů, které vyžadují kontext. Privacy Filter se snaží rozlišovat, zda je text soukromý údaj, nebo běžná veřejná informace. Přínosy: * kontextovější detekce než čisté pattern matching pravidlo, * možnost běhu lokálně bez odesílání citlivého vstupu na server, * vysoká propustnost díky klasifikaci v jednom průchodu, * možnost ladit kompromis mezi přesností a úplností, * možnost fine-tuningu na vlastní data a pravidla. OpenAI uvádí na benchmarku PII-Masking-300k skóre F1 96 % a na opravené variantě benchmarku F1 97,43 %. Tato čísla je ale potřeba brát jako benchmarkový výsledek, ne jako jistotu pro každý reálný český nebo firemní dataset. ===== Omezení ===== Privacy Filter má několik důležitých omezení: * není to certifikovaná anonymizace, * negarantuje splnění GDPR nebo jiné regulace, * může citlivý údaj přehlédnout, * může zamaskovat i něco, co citlivé není, * výchozí politika detekce je daná trénovanou taxonomií, * změna pravidel detekce obvykle vyžaduje fine-tuning, * výkon může být horší mimo angličtinu, v jiných písmech nebo v doménách mimo trénovací data. Pro české texty je proto vhodné počítat s vlastním testováním. Model může být užitečný i bez fine-tuningu, ale pro produkční nasazení by měl projít ověřením na reálných českých datech a typických dokumentech dané organizace. ===== Kdy dává smysl ===== Privacy Filter dává smysl hlavně tam, kde je potřeba rychle a automatizovaně snížit množství osobních nebo tajných údajů v textu před dalším zpracováním. Vhodné scénáře: * předzpracování textů před odesláním do externího LLM, * čištění logů před uložením nebo sdílením, * anonymizace datasetů pro experimenty, * ochranná vrstva před RAG indexací, * kontrola výstupů interních aplikací, * hledání tajných údajů v konfiguracích nebo exportech. Nevhodné je spoléhat na něj jako na jedinou ochranu v právních, zdravotnických, finančních, HR nebo státních procesech. Tam je potřeba kombinovat automatickou redakci s pravidly, auditem a lidskou kontrolou. ===== Shrnutí ===== OpenAI Privacy Filter je lokálně spustitelný model pro detekci a maskování citlivých údajů v textu. Hlavní přínos je možnost vyčistit data ještě před tím, než opustí počítač, server nebo interní prostředí. Pro malé experimenty stačí běžný počítač, pro větší dávkové zpracování je vhodnější GPU. Projekt je praktický hlavně jako privacy layer pro AI workflow, logy, RAG indexy a přípravu datasetů. ===== Zdroje ===== * [[https://openai.com/cs-CZ/index/introducing-openai-privacy-filter/|OpenAI – Představujeme OpenAI Privacy Filter]] * [[https://huggingface.co/openai/privacy-filter|Hugging Face – openai/privacy-filter]] * [[https://github.com/openai/privacy-filter|GitHub – openai/privacy-filter]] ai/modely/openai-privacy-filter.txt Poslední úprava: 27.04.2026 22:41autor: Petr Nosek