Treści generowane przez AI, w tym deepfakes i fałszywe nagrania audio, zacierały granice między rzeczywistością a fabrykacją, prowadząc do powszechnego zamieszania i manipulacji. Eksperci, tacy jak Yannick Myson, zalecają wbudowanie weryfikacji na etapie tworzenia treści i wdrożenie zdecentralizowanych systemów weryfikacji, aby zapewnić autentyczność.
Ekspert AI: Protokoły Prawdy Mogą Stać się SSL Epoki Informacyjnej

Dezinformacja i jej zagrożenia
Rok 2024 był wyraźnym ostrzeżeniem o niebezpieczeństwach, jakie może stwarzać sztuczna inteligencja (AI), jeśli nie zostaną wprowadzone żadne zabezpieczenia. Na całym świecie, od masowego procesu demokratycznego w Indiach po napięty klimat polityczny na Tajwanie, kampanie dezinformacyjne generowane przez AI pozostawiły swój ślad.
Na Tajwanie prezenterzy informacyjni deepfake zacierały granice między rzeczywistością a fabrykacją, podczas gdy w Stanach Zjednoczonych fałszywe nagranie audio prezydenta Bidena rzekomo zniechęcające Demokratów z New Hampshire do głosowania podkreślało łatwość, z jaką AI można wykorzystać do manipulacji politycznej. Ogromna ilość i zaawansowanie tej syntetycznej mediów sprawiły, że wielu ludzi czuło się zagubionych w morzu niepewności, starając się odróżnić fakty od fikcji.
Jednak niektórzy eksperci, tacy jak Yannick Myson, założyciel i CEO Swarm Network, twierdzą, że problem sięga głębiej niż manipulacja wyborcza. Wskazuje on na AI-indukowaną psychozę, niepokojące zjawisko, w którym ludzie rozwijają wielkie urojenia, co według niektórych badań jest związane z długotrwałymi interakcjami z chatbotami AI. Koszt tej psychozy wywołanej przez AI był ogromny; niektórzy stracili pracę, podczas gdy inni trafili na leczenie psychiatryczne.
„Podobnie jak deepfakes wykorzystują nasze wizualne skróty przetwarzania, psychoza AI wykorzystuje nasze psychologiczne wrażliwości, z chatbotami pełniącymi rolę idealnych komór echa, które potwierdzają i wzmacniają urojenia,” powiedział Myson.
Centralizowane vs. Zdecentralizowane rozwiązania
Myson uważa, że obecne reaktywne środki, takie jak ad hoc inicjatywy weryfikacji faktów, są po prostu niewystarczające, aby zwalczyć ten narastający problem. „Przemysł dostrzega, że doraźna weryfikacja faktów nie nadąża za szybkością syntetycznych mediów ani psychologiczną manipulacją systemów AI,” stwierdza.
Jego rozwiązanie, uosobione przez Swarm Network, jest proaktywne: wbudowanie weryfikacji na dużą skalę. To obejmuje ustanowienie pochodzenia już na etapie tworzenia treści, zapewniając, że pochodzenie informacji cyfrowej można prześledzić i zweryfikować. Ponadto Myson opowiada się za zdecentralizowanymi systemami weryfikacji, gdzie informacja jest sprawdzana krzyżowo i weryfikowana, gdy rozprzestrzenia się w sferze cyfrowej.
Ta wizja solidnej „infrastruktury prawdy” rezonuje z narastającym niepokojem w przemyśle AI. W miarę jak technologia nadal rozwija się w szybkim tempie, etyczne i społeczne implikacje jej niewłaściwego użycia stają się coraz bardziej widoczne. Erozja zaufania do informacji cyfrowych, napędzana przez wyrafinowane fałszywe media generowane przez AI, stanowi znaczące zagrożenie dla procesów demokratycznych, spójności społecznej, a nawet indywidualnego zdrowia psychicznego.
Aby temu przeciwdziałać, niektórzy opowiadają się za regulacyjną odpowiedzią, powołując się na przeszłe przypadki, kiedy okazała się ona niezbędnym narzędziem chroniącym użytkowników przed potencjalnymi zagrożeniami związanymi z technologiami wschodzącymi. Krytycy jednak ostrzegają, że to mogłoby nieumyślnie zdusić innowacje, z czym Myson wydaje się zgadzać.
„Regulacje mogą pomóc, ale tylko jeśli unikną pułapki centralizacji prawdy. Widzieliśmy, jak rządy wykorzystują ‘ustawy o dezinformacji’, aby uciszyć debatę,” powiedział CEO Swarm Network.
Aby poprzeć to twierdzenie, Myson wskazał, jak biurokraci UE rzekomo wykorzystują unijne Rozporządzenie o Usługach Cyfrowych (DSA), które wymaga usunięcia szeroko zdefiniowanych treści „szkodliwych,” „jako narzędzie do ograniczania otwartej dyskusji na całym świecie”. Myson twierdzi, że unijna ustawa AI tworzy podobne problemy.
Zamiast wprowadzać takie elementy jak DSA czy ustawa AI, Myson opowiada się raczej za wprowadzeniem obowiązkowej przejrzystości, jasnym oznaczaniem mediów syntetycznych i otwartymi standardami pochodzenia jak C2PA. „Reguły powinny wymuszać dowód, a nie opinię,” argumentował.
Przyszłość weryfikacji
Według CEO, główne platformy społecznościowe, takie jak Meta i TikTok, dostrzegają to i od tego czasu przestawiły się na bardziej zdecentralizowane podejścia do weryfikacji faktów.
„Ta zmiana reprezentuje podstawowe uznanie, że centralizowana weryfikacja faktów tworzy wąskie gardła i pojedyncze punkty awarii. Przyszłość weryfikacji treści nie polega na dawaniu rządom czy korporacjom władzy decydowania, co jest prawdą,” stwierdził CEO.
Myson uważa, że ta zmiana sprawia, iż rozwiązania oferowane przez Swarm Network są kluczowe. Zamiast polegać na garstce zcentralizowanych weryfikatorów faktów, Swarm używa „agentów AI współpracujących z ludzkimi recenzentami do tworzenia audytowalnej, on-chainowego zapisu zweryfikowanych twierdzeń.”
Rzeczywiście, agenci AI szybko przechodzą od konceptów teoretycznych do praktycznych zastosowań, zasadniczo zmieniając sposób, w jaki funkcjonują różne sektory. Główna korzyść z tych agentów to ich zdolność do automatyzacji i optymalizacji. Mogą przetwarzać ogromne ilości danych w krótkim czasie, rozpoznawać wzorce, które ludzie mogliby przeoczyć, i działać 24/7 bez zmęczenia.
Jednakże, powszechne zastosowanie agentów AI wprowadza również złożone wyzwania, które należy starannie rozwiązać. Aby przezwyciężyć niektóre z tych wyzwań, Myson powiedział, że podejście jego firmy polega na „przekształcaniu agentów w przejrzystych współpracowników, a nie niekontrolowane wyrocznie.” Dodał:
„W Swarm agenci rozkładają informacje na małe, testowalne twierdzenia, sprawdzają się nawzajem, a gdy potrzebna jest niuans, wchodzą ludzie. Każdy krok jest rejestrowany i zakotwiczony w łańcuchu bloków, aby ich rozumowanie było powtarzalne. W skrócie: żadnych czarnych skrzynek, tylko weryfikowalne ślady.”
Tymczasem Myson wierzy, że w ciągu następnych pięciu lat weryfikacja faktów przejdzie od procesu manualnego do wbudowanej funkcji cyfrowego życia, a agenci AI będą oceniani na podstawie ich przejrzystości, nie tylko prędkości. Ostateczną wizją jest uczynienie z prawdy podstawowej warstwy internetu.
„W podobny sposób jak SSL stało się domyślne dla ruchu internetowego, protokół prawdy stanie się domyślny dla informacji. I właśnie w ten sposób chronimy świat przed zatopieniem przez AI w hałasie,” podsumował Myson.









