Firma Brevis wprowadziła niedawno kompleksowy system weryfikacji autentyczności mediów, który umożliwia kryptograficzne potwierdzanie pochodzenia obrazów i filmów, jednocześnie chroniąc dane użytkowników.
Więcej niż wykrywanie sztucznej inteligencji: firma Brevis przedstawia system kryptograficznej weryfikacji pochodzenia mediów

Przejście od wykrywania do potwierdzania
9 marca 2026 r. firma Brevis, zajmująca się obliczeniami opartymi na dowodach zerowej wiedzy, wprowadziła na rynek kompleksowy system autentyczności mediów, mający na celu rozwiązanie problemu braku zaufania w Internecie. System ten, znany jako Brevis Vera, umożliwia kryptograficzne potwierdzanie pochodzenia i historii obrazów oraz filmów bez ujawniania danych użytkowników.
Wraz z rozwojem technologii deepfake, branża zaczęła polegać na wykrywaczach opartych na sztucznej inteligencji (AI) w celu wykrywania fałszywych treści. Jednak firma Brevis uważa to za walkę z góry skazaną na porażkę. „Wykrywacze są ruchomym celem” – stwierdziła firma na swoim blogu. „Vera stosuje inne podejście. Zamiast pytać, czy media wyglądają na prawdziwe, pozwala im udowodnić, skąd pochodzą”.
Obecne podpisy C2PA uwierzytelniają pliki w momencie ich przechwycenia, ale tracą ważność w momencie wprowadzenia zmian, zmuszając do wyboru między użyciem plików surowych a utratą dowodu autentyczności. Vera wypełnia tę lukę dzięki Brevis Pico, wirtualnej maszynie typu zero-knowledge (zkVM), która generuje matematyczne dowody potwierdzające, że zmiany, takie jak kadrowanie lub zmiana rozmiaru, były legalnymi przekształceniami oryginału.
Od obiektywu do ekranu
Według wpisu na blogu, proces pracy Vera przebiega w trzech zintegrowanych fazach. Najpierw media są podpisywane w momencie przechwytywania przez urządzenia obsługujące C2PA. Następnie dowody zkVM zachowują tę autentyczność, gdy plik jest edytowany lub kompresowany. Na koniec platformy wyświetlają plakietkę „Vera-certified”, która zapewnia użytkownikom pełną, zweryfikowaną historię zasobów cyfrowych.
Premiera narzędzia następuje w krytycznym momencie dla globalnej stabilności. Tylko w pierwszym kwartale 2026 r. świat cyfrowy został wstrząśnięty przez wysokiej jakości podróbki rządowe i hiperrealistyczne deepfake'i wymierzone w kandydatów politycznych w ważnych wyborach międzynarodowych.

SEC alarmuje, gdy oszuści kryptowalutowi zalewają czaty grupowe oszustwami wykorzystującymi sztuczną inteligencję.
Oszustwa kryptowalutowe szybko przenoszą się do prywatnych czatów grupowych, gdzie oszuści podszywają się pod zaufanych ekspertów, wykorzystują oszustwa wspomagane przez AI i kierują inwestorów detalicznych na fałszywe platformy handlowe, co skłoniło SEC do wydania nowego ostrzeżenia o rosnących stratach i… read more.
Czytaj teraz
SEC alarmuje, gdy oszuści kryptowalutowi zalewają czaty grupowe oszustwami wykorzystującymi sztuczną inteligencję.
Oszustwa kryptowalutowe szybko przenoszą się do prywatnych czatów grupowych, gdzie oszuści podszywają się pod zaufanych ekspertów, wykorzystują oszustwa wspomagane przez AI i kierują inwestorów detalicznych na fałszywe platformy handlowe, co skłoniło SEC do wydania nowego ostrzeżenia o rosnących stratach i… read more.
Czytaj teraz
SEC alarmuje, gdy oszuści kryptowalutowi zalewają czaty grupowe oszustwami wykorzystującymi sztuczną inteligencję.
Czytaj terazOszustwa kryptowalutowe szybko przenoszą się do prywatnych czatów grupowych, gdzie oszuści podszywają się pod zaufanych ekspertów, wykorzystują oszustwa wspomagane przez AI i kierują inwestorów detalicznych na fałszywe platformy handlowe, co skłoniło SEC do wydania nowego ostrzeżenia o rosnących stratach i… read more.
Incydenty te podsyciły zjawisko, które eksperci nazywają „dywidendą kłamcy” — zjawisko, w którym samo istnienie deepfake'ów pozwala złym aktorom odrzucać prawdziwe dowody korupcji lub zbrodni wojennych jako generowane przez sztuczną inteligencję. Firma zauważyła, że domyślna reakcja na uderzające obrazy zmieniła się z ciekawości na podejrzliwość. Jednak dzięki Vera autentyczność staje się domyślna, a prawda znów jest weryfikowalna.
FAQ ❓
- Czym jest Brevis Vera? Brevis Vera to system autentyczności mediów uruchomiony przez Brevis 9 marca 2026 r., zaprojektowany w celu weryfikacji pochodzenia obrazów i filmów bez narażania danych użytkowników.
- Czym Brevis Vera różni się od wykrywaczy AI? W przeciwieństwie do wykrywaczy AI, które borykają się z ewoluującymi deepfake'ami, Vera pozwala mediom kryptograficznie potwierdzić ich autentyczność, a nie tylko oceniać ich realizm.
- Jaką rolę odgrywa Brevis Pico zkVM? Brevis Pico generuje matematyczne dowody, które weryfikują legalne zmiany w plikach multimedialnych, zapewniając zachowanie autentyczności podczas całego procesu edycji.
- Dlaczego Vera jest teraz tak ważna? Wraz z pojawieniem się wyrafinowanych deepfake'ów i dezinformacji, Vera przywraca zaufanie, zapewniając certyfikaty „Vera-certified”, które potwierdzają zweryfikowaną historię zasobów cyfrowych.









