Obsah generovaný umělou inteligencí, včetně deepfake a falešného zvuku, zamíchal hranice mezi realitou a výmyslem, což vedlo k rozšířenému zmatku a manipulaci. Odborníci jako Yannick Myson prosazují vkládání ověřování ve fázi tvorby obsahu a implementaci decentralizovaných ověřovacích systémů k zajištění autenticity.
AI Expert: Protokoly pravdy by se mohly stát SSL informačního věku

Dezinformace a její nebezpečí
Rok 2024 sloužil jako zřejmé varování ohledně nebezpečí, která může umělá inteligence (AI) představovat, pokud nebudou zavedena žádná opatření. Po celém světě, od masivního demokratického cvičení v Indii až po napjaté politické klima na Tchaj-wanu, zanechaly AI generované dezinformační kampaně svou stopu.
Na Tchaj-wanu deepfake zpravodajové zamíchali hranice mezi realitou a výmyslem, zatímco ve Spojených státech falešný zvuk prezidenta Bidena, údajně odrazujícího New Hampshire demokraty od hlasování, zdůraznil snadnost, s jakou může být AI zneužita pro politickou manipulaci. Ohromujicí objem a sofistikovanost tohoto syntetického média zanechaly mnoho lidí plavat v moři nejistoty, snažící se rozlišit fakt od fikce.
Nicméně někteří odborníci, jako Yannick Myson, zakladatel a CEO Swarm Network, argumentují, že problém je hlubší než volební manipulace. Poukazuje na AI indukovanou psychózu, znepokojující fenomén lidí rozvíjejících grandiózní iluze, což některé studie spojují s rozšířenými interakcemi s AI chatboty. Náklady této AI indukované psychózy byly obrovské; někteří ztratili práci, zatímco jiní skončili v psychiatrické léčbě.
“Stejně jako deepfake využívá naše vizuální zpracovatelské zkratky, AI psychóza využívá naše psychologické zranitelnosti, přičemž chatboti slouží jako dokonalé ozvěnové komory, které potvrzují a zesilují iluzorní myšlení,” řekl Myson.
Centralizovaná vs. Decentralizovaná řešení
Myson se domnívá, že současná reaktivní opatření, jako jsou slepované iniciativy na ověřování faktů, jsou prostě nedostatečná k boji proti tomuto rostoucímu problému. “Co průmysl chápe, je to, že slepování faktů nemůže držet krok s rychlostí syntetických médií nebo psychologickou manipulací systémů AI,” tvrdí.
Jeho řešení, ztělesněné v Swarm Network, je proaktivní: vkládání ověřování v měřítku. To zahrnuje stanovení původu v samotném bodě tvorby obsahu, zajištění, že původ digitálních informací lze sledovat a ověřovat. Dále Myson prosazuje decentralizované ověřovací systémy, kde jsou informace průběžně křížově ověřovány a validovány, jak se šíří digitálním prostorem.
Tato vize robustní “infrastruktury pravdy” rezonuje s rostoucím znepokojením v AI průmyslu. Jak technologie pokračuje v rychlém pokroku, etické a sociální dopady jejího zneužívání se stávají stále zřejmějšími. Eroze důvěry v digitální informace, podněcovaná sofistikovanými AI generovanými nepravdami, představuje významnou hrozbu pro demokratické procesy, sociální soudržnost a dokonce i individuální duševní pohodu.
Aby to bojovalo, někteří obhajují regulační reakci, citujíc minulé případy, kdy to bylo základní nástrojem k ochraně uživatelů před potenciálními riziky spojenými s rozvíjejícími se technologiemi. Kritici však varují, že by to mohlo mít nechtěný efekt potlačení inovace, což Myson zřejmě sdílí.
“Regulace může pomoci, ale pouze pokud se vyhne pasti centralizování pravdy. Viděli jsme, jak vlády zneužívají ‘zákony o dezinformacích’ k umlčení debaty,” uvedl CEO Swarm Network.
Na podporu tohoto tvrzení Myson poukázal na to, jak údajně eurounijní byrokrati používají Evropskou unii (EU) Digital Services Act (DSA), která nařizuje odstranění široce definovaného “škodlivého” obsahu, jako “nástroj k omezování otevřené diskuze po celém světě.” Myson tvrdí, že tak EU AI Act také vytváří podobné problémy.
Místo přijímání textů jako DSA nebo AI Act, Myson místo toho obhajuje povinnou transparentnost, jasné označení syntetických médií a otevřené standardy původu jako C2PA. “Pravidla by měla vynucovat důkaz, ne názor,” argumentoval.
Budoucnost ověřování
Podle CEO, hlavní sociální mediální platformy jako Meta a TikTok toto uznávají a od té doby se posunuly směrem k decentralizovanějším přístupům k ověřování faktů.
“Tento posun představuje zásadní uznání toho, že centralizované ověřování faktů vytváří úzká hrdla a jednotlivé body selhání. Budoucnost ověřování obsahu není o tom, dát vládám nebo korporacím moc rozhodovat, co je pravda,” uvedl CEO.
Myson věří, že tento posun činí řešení, jako je to nabízené Swarm Network, klíčovým. Namísto spoléhání se na hrstku centralizovaných ověřovatelů faktů, Swarm používá “AI agenty pracující vedle lidských recenzentů k vytvoření auditovatelného, na řetězci založeného záznamu ověřených tvrzení.”
Opravdu, AI agenti rychle přecházejí z teoretických konceptů k praktickým aplikacím, fundamentálně měníc, jak různé sektory fungují. Primární výhodou těchto agentů je jejich schopnost automatizace a optimalizace. Mohou zpracovávat obrovské množství dat za krátkou dobu, identifikovat vzory, které by lidem mohly uniknout, a fungovat nepřetržitě bez únavy.
Přesto široké přijetí AI agentů také zavádí složité výzvy, které je třeba pečlivě řešit. Aby překonal některé z těchto problémů, Myson řekl, že přístup jeho společnosti “spočívá v tom, přeměnit agenty na transparentní spolupracovníky, ne nekontrolované orákula.” Dodal:
“Ve Swarmu, agenty rozkládají informace na malé, testovatelné tvrzení, navzájem si ověřují a kde je potřeba nuance, lidé vstupují do procesu. Každý krok je zaznamenán a ukotven na řetězci, takže jejich uvažování může být přehráno. Stručně řečeno: žádné černé skříňky, jen ověřitelné stopy.”
Mezitím Myson věří, že v příštích pěti letech se ověřování faktů vyvine z manuálního procesu na zabudovanou funkci digitálního života a AI agenti budou hodnoceni na základě jejich transparentnosti, nesou rychlosti. Konečnou vizí je učinit pravdu základní vrstvou internetu.
“Stejně jako SSL se stal výchozím nastavením pro webový provoz, protokol pravdy se stane výchozím pro informace. A tak udržíme AI od utopení světa v šumu,” uzavřel Myson.
Štítky v tomto článku
Výběry her Bitcoin
425% až do 5 BTC + 100 Volných Točení















