Obsah

OpenAI Privacy Filter

Vytvořeno: 27.4.2026 | Aktualizováno: 27.04.2026 22:41

OpenAI Privacy Filter je otevřený model pro detekci a maskování osobně identifikovatelných informací v textu. Model je dostupný na Hugging Face pod licencí Apache 2.0 a je určený hlavně pro lokální nebo on-premise zpracování dat před tím, než se text pošle do dalších systémů.

Co projekt řeší

Privacy Filter slouží jako mezivrstva pro snížení rizika, že se do logů, indexů, trénovacích dat nebo AI nástrojů dostanou citlivé údaje. Typické použití je vyčištění textu před:

Nejde ale o právní garanci anonymizace ani o kompletní compliance nástroj. OpenAI ho popisuje jako pomůcku pro redakci a minimalizaci dat, která má být součástí širšího návrhu ochrany soukromí.

Jak Privacy Filter funguje

Token classification místo generování textu

Privacy Filter není chatbot ani běžný generativní model. Funguje jako model pro klasifikaci tokenů:

  1. vstupní text rozdělí na tokeny,
  2. pro každý token odhadne, zda patří do citlivé kategorie,
  3. sousední označené tokeny spojí do souvislých úseků,
  4. výsledné úseky vrátí jako nalezené entity nebo je zamaskuje.

Model tedy nevymýšlí novou odpověď. Chová se spíš jako kontextově citlivý zvýrazňovač osobních a tajných údajů.

OpenAI uvádí, že model je obousměrný klasifikátor tokenů s dekódováním rozsahů. Po klasifikaci jednotlivých tokenů používá omezený Viterbiho dekodér, který pomáhá vytvořit souvislé a konzistentní hranice maskovaných úseků.

Detekované kategorie

Model rozpoznává osm kategorií:

Příklad vstupu:

My name is Alice Smith and my email is alice@example.com.

Výstup může označit například jméno jako private_person a e-mail jako private_email. Výsledné maskování pak může vypadat takto:

My name is [PRIVATE_PERSON] and my email is [PRIVATE_EMAIL].

Spuštění na vlastním počítači

Ano, Privacy Filter je možné spustit lokálně. Nevyžaduje odesílání nefiltrovaných dat do OpenAI API. Oficiální repozitář openai/privacy-filter na GitHubu obsahuje lokální CLI, Python API, evaluační nástroje a podporu pro fine-tuning.

Základní instalace podle GitHub repozitáře:

git clone https://github.com/openai/privacy-filter
cd privacy-filter
pip install -e .

Jednorázové spuštění přes CLI:

opf "Alice was born on 1990-01-02."

Spuštění na CPU:

opf --device cpu "Alice was born on 1990-01-02."

Zpracování souboru:

opf -f /path/to/file

Použití přes Hugging Face Transformers:

from transformers import pipeline
 
classifier = pipeline(
    task="token-classification",
    model="openai/privacy-filter",
)
 
classifier("My name is Alice Smith")

Na Hugging Face je uvedená i varianta přes Transformers.js s WebGPU, takže model může běžet i v prohlížeči, pokud má prohlížeč a hardware potřebnou podporu.

Náročnost na výkon

OpenAI uvádí, že model má 1,5 miliardy parametrů celkem a z toho 50 milionů aktivních parametrů. Je tedy malý ve srovnání s velkými generativními LLM, ale pořád jde o neuronový model, ne o jednoduchý regex.

Praktické dopady:

Model podporuje dlouhý kontext až 128 000 tokenů. To ale neznamená, že každý počítač pohodlně zpracuje takto dlouhé dokumenty. Dlouhý kontext je schopnost modelu, zatímco reálná rychlost a spotřeba paměti závisí na použitém zařízení, datovém typu, implementaci a délce vstupu.

Co to přináší oproti regexům

Klasická pravidla a regexy dobře fungují pro pevné formáty, například e-mailové adresy nebo telefonní čísla. Horší je to u údajů, které vyžadují kontext. Privacy Filter se snaží rozlišovat, zda je text soukromý údaj, nebo běžná veřejná informace.

Přínosy:

OpenAI uvádí na benchmarku PII-Masking-300k skóre F1 96 % a na opravené variantě benchmarku F1 97,43 %. Tato čísla je ale potřeba brát jako benchmarkový výsledek, ne jako jistotu pro každý reálný český nebo firemní dataset.

Omezení

Privacy Filter má několik důležitých omezení:

Pro české texty je proto vhodné počítat s vlastním testováním. Model může být užitečný i bez fine-tuningu, ale pro produkční nasazení by měl projít ověřením na reálných českých datech a typických dokumentech dané organizace.

Kdy dává smysl

Privacy Filter dává smysl hlavně tam, kde je potřeba rychle a automatizovaně snížit množství osobních nebo tajných údajů v textu před dalším zpracováním.

Vhodné scénáře:

Nevhodné je spoléhat na něj jako na jedinou ochranu v právních, zdravotnických, finančních, HR nebo státních procesech. Tam je potřeba kombinovat automatickou redakci s pravidly, auditem a lidskou kontrolou.

Shrnutí

OpenAI Privacy Filter je lokálně spustitelný model pro detekci a maskování citlivých údajů v textu. Hlavní přínos je možnost vyčistit data ještě před tím, než opustí počítač, server nebo interní prostředí. Pro malé experimenty stačí běžný počítač, pro větší dávkové zpracování je vhodnější GPU. Projekt je praktický hlavně jako privacy layer pro AI workflow, logy, RAG indexy a přípravu datasetů.

Zdroje