ai:modely:openai-privacy-filter

OpenAI Privacy Filter

Vytvořeno: 27.4.2026 | Aktualizováno: 27.04.2026 22:41

OpenAI Privacy Filter je otevřený model pro detekci a maskování osobně identifikovatelných informací v textu. Model je dostupný na Hugging Face pod licencí Apache 2.0 a je určený hlavně pro lokální nebo on-premise zpracování dat před tím, než se text pošle do dalších systémů.

Privacy Filter slouží jako mezivrstva pro snížení rizika, že se do logů, indexů, trénovacích dat nebo AI nástrojů dostanou citlivé údaje. Typické použití je vyčištění textu před:

  • odesláním do LLM,
  • indexací do RAG systému,
  • ukládáním aplikačních logů,
  • sdílením dokumentů,
  • přípravou dat pro trénink nebo fine-tuning,
  • kontrolou kódu a konfigurací na přítomnost tajných údajů.

Nejde ale o právní garanci anonymizace ani o kompletní compliance nástroj. OpenAI ho popisuje jako pomůcku pro redakci a minimalizaci dat, která má být součástí širšího návrhu ochrany soukromí.

Privacy Filter není chatbot ani běžný generativní model. Funguje jako model pro klasifikaci tokenů:

  1. vstupní text rozdělí na tokeny,
  2. pro každý token odhadne, zda patří do citlivé kategorie,
  3. sousední označené tokeny spojí do souvislých úseků,
  4. výsledné úseky vrátí jako nalezené entity nebo je zamaskuje.

Model tedy nevymýšlí novou odpověď. Chová se spíš jako kontextově citlivý zvýrazňovač osobních a tajných údajů.

OpenAI uvádí, že model je obousměrný klasifikátor tokenů s dekódováním rozsahů. Po klasifikaci jednotlivých tokenů používá omezený Viterbiho dekodér, který pomáhá vytvořit souvislé a konzistentní hranice maskovaných úseků.

Model rozpoznává osm kategorií:

  • account_number – čísla účtů, platební karty, bankovní údaje,
  • private_address – soukromé adresy,
  • private_email – e-mailové adresy,
  • private_person – jména soukromých osob,
  • private_phone – telefonní čísla,
  • private_url – soukromé URL,
  • private_date – soukromá data,
  • secret – hesla, API klíče a podobné tajné hodnoty.

Příklad vstupu:

My name is Alice Smith and my email is alice@example.com.

Výstup může označit například jméno jako private_person a e-mail jako private_email. Výsledné maskování pak může vypadat takto:

My name is [PRIVATE_PERSON] and my email is [PRIVATE_EMAIL].

Ano, Privacy Filter je možné spustit lokálně. Nevyžaduje odesílání nefiltrovaných dat do OpenAI API. Oficiální repozitář openai/privacy-filter na GitHubu obsahuje lokální CLI, Python API, evaluační nástroje a podporu pro fine-tuning.

Základní instalace podle GitHub repozitáře:

git clone https://github.com/openai/privacy-filter
cd privacy-filter
pip install -e .

Jednorázové spuštění přes CLI:

opf "Alice was born on 1990-01-02."

Spuštění na CPU:

opf --device cpu "Alice was born on 1990-01-02."

Zpracování souboru:

opf -f /path/to/file

Použití přes Hugging Face Transformers:

from transformers import pipeline
 
classifier = pipeline(
    task="token-classification",
    model="openai/privacy-filter",
)
 
classifier("My name is Alice Smith")

Na Hugging Face je uvedená i varianta přes Transformers.js s WebGPU, takže model může běžet i v prohlížeči, pokud má prohlížeč a hardware potřebnou podporu.

OpenAI uvádí, že model má 1,5 miliardy parametrů celkem a z toho 50 milionů aktivních parametrů. Je tedy malý ve srovnání s velkými generativními LLM, ale pořád jde o neuronový model, ne o jednoduchý regex.

Praktické dopady:

  • krátké texty lze vyzkoušet i na běžném notebooku,
  • CPU režim funguje, ale bude pomalejší než GPU,
  • pro dávkové zpracování větších objemů textu je vhodnější GPU,
  • delší vstupy a vyšší přesnost výpočtů zvyšují nároky na paměť,
  • WebGPU/kvantizované varianty mohou být vhodnější pro lehčí lokální použití.

Model podporuje dlouhý kontext až 128 000 tokenů. To ale neznamená, že každý počítač pohodlně zpracuje takto dlouhé dokumenty. Dlouhý kontext je schopnost modelu, zatímco reálná rychlost a spotřeba paměti závisí na použitém zařízení, datovém typu, implementaci a délce vstupu.

Klasická pravidla a regexy dobře fungují pro pevné formáty, například e-mailové adresy nebo telefonní čísla. Horší je to u údajů, které vyžadují kontext. Privacy Filter se snaží rozlišovat, zda je text soukromý údaj, nebo běžná veřejná informace.

Přínosy:

  • kontextovější detekce než čisté pattern matching pravidlo,
  • možnost běhu lokálně bez odesílání citlivého vstupu na server,
  • vysoká propustnost díky klasifikaci v jednom průchodu,
  • možnost ladit kompromis mezi přesností a úplností,
  • možnost fine-tuningu na vlastní data a pravidla.

OpenAI uvádí na benchmarku PII-Masking-300k skóre F1 96 % a na opravené variantě benchmarku F1 97,43 %. Tato čísla je ale potřeba brát jako benchmarkový výsledek, ne jako jistotu pro každý reálný český nebo firemní dataset.

Privacy Filter má několik důležitých omezení:

  • není to certifikovaná anonymizace,
  • negarantuje splnění GDPR nebo jiné regulace,
  • může citlivý údaj přehlédnout,
  • může zamaskovat i něco, co citlivé není,
  • výchozí politika detekce je daná trénovanou taxonomií,
  • změna pravidel detekce obvykle vyžaduje fine-tuning,
  • výkon může být horší mimo angličtinu, v jiných písmech nebo v doménách mimo trénovací data.

Pro české texty je proto vhodné počítat s vlastním testováním. Model může být užitečný i bez fine-tuningu, ale pro produkční nasazení by měl projít ověřením na reálných českých datech a typických dokumentech dané organizace.

Privacy Filter dává smysl hlavně tam, kde je potřeba rychle a automatizovaně snížit množství osobních nebo tajných údajů v textu před dalším zpracováním.

Vhodné scénáře:

  • předzpracování textů před odesláním do externího LLM,
  • čištění logů před uložením nebo sdílením,
  • anonymizace datasetů pro experimenty,
  • ochranná vrstva před RAG indexací,
  • kontrola výstupů interních aplikací,
  • hledání tajných údajů v konfiguracích nebo exportech.

Nevhodné je spoléhat na něj jako na jedinou ochranu v právních, zdravotnických, finančních, HR nebo státních procesech. Tam je potřeba kombinovat automatickou redakci s pravidly, auditem a lidskou kontrolou.

OpenAI Privacy Filter je lokálně spustitelný model pro detekci a maskování citlivých údajů v textu. Hlavní přínos je možnost vyčistit data ještě před tím, než opustí počítač, server nebo interní prostředí. Pro malé experimenty stačí běžný počítač, pro větší dávkové zpracování je vhodnější GPU. Projekt je praktický hlavně jako privacy layer pro AI workflow, logy, RAG indexy a přípravu datasetů.

  • ai/modely/openai-privacy-filter.txt
  • Poslední úprava: 27.04.2026 22:41
  • autor: Petr Nosek