เนื้อหาที่สร้างโดย AI รวมถึงดีปเฟคและเสียงปลอมทำให้เส้นแบ่งระหว่างความเป็นจริงและการประดิษฐ์มัวหมอง เป็นเหตุให้เกิดความสับสนและการบิดเบือนอย่างแพร่หลาย ผู้เชี่ยวชาญอย่าง Yannick Myson เสนอให้ฝังการตรวจสอบความแท้ตั้งแต่ขั้นตอนการสร้างเนื้อหาและใช้ระบบการตรวจสอบแบบกระจายเพื่อรับรองความจริงแท้
AI ผู้เชี่ยวชาญ: โปรโตคอลความจริงอาจกลายเป็น SSL ของยุคข้อมูลข่าวสาร

ข้อมูลผิดพลาดและอันตรายของข้อมูล
ปี 2024 ได้เตือนอย่างชัดเจนเกี่ยวกับอันตรายที่ปัญญาประดิษฐ์ (AI) อาจก่อให้เกิด หากไม่มีการป้องกันเกิดขึ้น ในทั่วโลก ตั้งแต่การออกเสียงประชาธิปไตยขนาดใหญ่ของอินเดียไปจนถึงสภาพการเมืองตึงเครียดของไต้หวัน การรณรงค์เผยแพร่ข้อมูลผิดพลาดที่สร้างด้วย AI ได้ทิ้งร่องรอยไว้
ในไต้หวัน การผลิตข่าวดีปเฟคทำให้เส้นแบ่งระหว่างความเป็นจริงและการประดิษฐ์มัวหมอง ขณะที่ในสหรัฐอเมริกา เสียงปลอมของประธานาธิบดี Biden ที่กล่าวหาว่าส่งเสริมประชาธิปไตย New Hampshire ให้ไม่ไปลงคะแนน ก็แสดงถึงความง่ายที่ AI สามารถถูกนำมาใช้เป็นอาวุธในการบิดเบือนทางการเมือง ปริมาณและความซับซ้อนของสื่อนี้ทิ้งให้หลายคนรู้สึกว่าอยู่ในทะเลของความไม่แน่นอน ต่อสู้ดิ้นรนเพื่อแยกแยะความจริงจากความเท็จ
อย่างไรก็ตาม ผู้เชี่ยวชาญบางคน เช่น Yannick Myson ผู้ก่อตั้งและซีอีโอของ Swarm Network ให้เหตุผลว่าปัญหายิ่งใหญ่กว่าการบิดเบือนการเลือกตั้ง เขาอ้างถึงโรคจิตที่เกิดจาก AI ซึ่งเป็นปรากฏการณ์ที่น่าวังเวียนของการที่คนพัฒนาความหลอกหลอนใหญ่โต ซึ่งมีการวิจัยบางฉบับเชื่อมโยงกับการที่ผู้คนโต้ตอบกับแชตบอท AI เป็นเวลานาน ผลลัพธ์ที่น่ากลัวของโรคจิตที่เกิดจาก AI คือบางคนเสื่อมสภาพจนต้องสูญเสียงาน ในขณะที่คนอื่น ๆ จบลงด้วยการรักษาจิตเวช
“เหมือนกับที่ดีปเฟคใช้ประโยชน์จากระบบการประมวลผลภาพของเรา โรคจิตที่เกิดจาก AI ใช้ประโยชน์จากความเปราะบางทางจิตวิทยาของเรา โดยแชตบอทจะทำหน้าที่เป็นห้องสะท้อนเสียงที่ยืนยันและขยายความคิดที่หลอกหลอน” Myson กล่าว
โซลูชันแบบรวมศูนย์เทียบกับแบบกระจาย
Myson เชื่อว่ามาตรการที่ตอบสนองปัจจุบัน เช่น การตรวจสอบความจริงแบบแผ่นต่าง ๆ นั้นยังไม่เพียงพอต่อการต่อสู้กับปัญหาที่เพิ่มมากขึ้นนี้ “สิ่งที่อุตสาหกรรมกำลังตื่นขึ้นพบก็คือการตรวจสอบความจริงแบบชิ้นต่อชิ้นไม่สามารถทันกับความเร็วของสื่อที่สร้างด้วย AI หรือการบิดเบือนทางจิตวิทยาของระบบ AI ได้” เขายืนยัน
โซลูชันของเขาซึ่งถูกนำมาใช้ใน Swarm Network เป็นวิธีเชิงรุก: ฝังการตรวจสอบความแท้ในสเกลใหญ่ ซึ่งรวมถึงการระบุแหล่งที่มาตั้งแต่จุดสร้างเนื้อหา เพื่อให้ข้อมูลดิจิทัลสามารถถูกตรวจสอบและรับรองได้ นอกจากนี้ Myson สนับสนุนให้ใช้ระบบตรวจสอบแบบกระจาย ซึ่งข้อมูลถูกตรวจสอบข้ามกันและรับรองในขณะที่กระจายออกไปในวงการดิจิทัล
วิสัยทัศน์ของ “โครงสร้างพื้นฐานแห่งความจริง” ที่มีความแข็งแกร่งนี้สะท้อนถึงความกังวลที่เพิ่มขึ้นในอุตสาหกรรม AI เมื่อเทคโนโลยียังคงพัฒนาด้วยความเร็วที่รวดเร็ว ผลกระทบทางจริยธรรมและสังคมของการใช้ในทางที่ผิดกลับเป็นที่เห็นมากขึ้น การเสื่อมความเชื่อในข้อมูลดิจิทัลที่เพิ่มขึ้นเนื่องจากความเท็จที่สร้างด้วย AI ที่ซับซ้อนทำให้เกิดภัยคุกคามสำคัญต่อกระบวนการประชาธิปไตย ความสามัคคีของสังคม และแม้กระทั่งสวัสดิการจิตใจของบุคคล
เพื่อต่อสู้กับปัญหานี้ บางคนเสนอให้มีการตอบสนองทางกฎระเบียบ โดยอ้างถึงเหตุการณ์ในอดีตที่เคยเป็นเครื่องมือสำคัญในการปกป้องผู้ใช้จากความเสี่ยงที่อาจเกิดขึ้นจากเทคโนโลยีที่เกิดขึ้นใหม่ อย่างไรก็ดี นักวิจารณ์เตือนว่าอาจมีผลลบที่ไม่ได้ตั้งใจคือการกีดขวางนวัตกรรม ข้อถกเถียงที่ Myson ดูเหมือนจะเห็นด้วย
“กฎระเบียบสามารถช่วยได้ แต่ก็ต่อเมื่อมันหลีกเลี่ยงกับดักของการรวมศูนย์ความจริง เราได้เห็นรัฐบาลใช้อาวุธ ‘กฎหมายข้อมูลผิด’ เพื่อปิดกั้นการโต้วาที” ซีอีโอของ Swarm Network กล่าว
เพื่อสนับสนุนคำกล่าวนี้ Myson ชี้ให้เห็นว่าบุคคลากรในสหภาพยุโรป (EU) กำลังใช้กฎระเบียบ Digital Services Act (DSA) ของสหภาพยุโรป ซึ่งกำหนดให้ลบเนื้อหาที่ระบุกว้าง ๆ ว่าเป็น “อันตราย” เป็น “เครื่องมือในการควบคุมขอบเขตการโต้แย้งทั่วโลก” Myson ระบุว่า AI Act ของ EU ก็สร้างปัญหาคล้ายกัน
แทนที่จะบัญญัติชิ้นกฎหมายอย่าง DSA หรือ AI Act Myson จึงเสนอให้บังคับความโปร่งใส การระบุเนื้อหาสังเคราะห์ให้ชัดเจน และมาตรฐานแหล่งที่โปร่งใสเช่น C2PA “กฎควรบังคับใช้พยานหลักฐาน ไม่ใช่ความคิดเห็น” เขากล่าว
อนาคตของการตรวจสอบความจริง
ตามที่ซีอีโอกล่าว ถึงแม้แพลตฟอร์มสื่อสังคมหลัก ๆ เช่น Meta และ TikTok จะรับทราบเรื่องนี้และได้เปลี่ยนไปใช้วิธีการกระจายมากขึ้นในการตรวจสอบข้อเท็จจริง
“การเปลี่ยนแปลงนี้เป็นการยอมรับพื้นฐานว่าการตรวจสอบข้อเท็จจริงแบบรวมศูนย์สร้างคอขวดและจุดบกพร่องในระบบการตรวจสอบข้อเท็จจริงในอนาคตไม่ใช่เรื่องของการให้อำนาจแก่รัฐบาลหรือบริษัทในการตัดสินว่าอะไรจริง” ซีอีโอกล่าว
Myson เชื่อว่าการเปลี่ยนแปลงนี้ทำให้โซลูชันเช่นที่เสนอโดย Swarm Network มีความสำคัญ แทนที่จะพึ่งพากลุ่มคนตรวจสอบข้อเท็จจริงแบบรวมศูนย์ Swarm ใช้ “เอเจนต์ AI ทำงานร่วมกับผู้ตรวจสอบมนุษย์เพื่อสร้างบันทึกที่สามารถตรวจสอบได้ของข้อเรียกร้องที่ได้รับการตรวจสอบบนเชน”
แน่นอนว่าเอเจนต์ AI กำลังเคลื่อนจากแนวคิดทฤษฎีสู่การประยุกต์ใช้งานจริง เปลี่ยนแปลงวิธีการทำงานของภาคส่วนต่าง ๆ อย่างพื้นฐาน ประโยชน์หลักของเอเจนต์เหล่านี้คือความสามารถในการทำงานอัตโนมัติและเพิ่มประสิทธิภาพ พวกเขาสามารถประมวลผลข้อมูลขนาดใหญ่ภายในระยะเวลาสั้น ๆ ระบุแบบแผนที่มนุษย์อาจมองข้าม และทำงานตลอด 24 ชั่วโมงโดยไม่เหนื่อยล้า
อย่างไรก็ตาม การนำเอเจนต์ AI มาใช้แพร่หลายยังก่อให้เกิดความท้าทายที่ซับซ้อนที่ต้องได้รับการแก้ไขอย่างระมัดระวัง เพื่อเอาชนะความท้าทายเหล่านี้ Myson กล่าวว่าวิธีการของบริษัทของเขาคือ “เปลี่ยนเอเจนต์ให้เป็นผู้ร่วมมือที่ชัดเจน ไม่เป็นเพียงแหล่งข้อมูลตรวจสอบไม่ได้” เขากล่าวเสริม:
“ใน Swarm เอเจนต์จะทำลายข้อมูลลงเป็นข้อเรียกร้องขนาดเล็กที่สามารถตรวจสอบได้ พวกเขาตรวจสอบข้ามกันเอง และเมื่อต้องการความละเอียดถี่ถ้วน มนุษย์จะเข้ามามีส่วน ข้อมูลทุกรายละเอียดถูกบันทึกและยึดขึ้นไปบนเชน ดังนั้นการให้เหตุผลของพวกเขาจะสามารถถ่ายทดได้ สรุปคือ: ไม่มีกล่องดำ เพียงแค่เส้นทางที่ตรวจสอบได้”
ในขณะเดียวกัน Myson เชื่อว่า ในอีกห้าปีข้างหน้า การตรวจสอบข้อเท็จจริงจะพัฒนาไปจากกระบวนการที่ทำด้วยมือสู่คุณสมบัติที่ฝังตัวในชีวิตดิจิทัล และเอเจนต์ AI จะถูกประเมินโดยความโปร่งใสไม่ใช่เพียงแค่ความเร็ว วิสัยทัศน์ที่ดีที่สุดคือการทำให้ความจริงเป็นชั้นพื้นฐานของอินเตอร์เน็ต
“ในแบบเดียวกับที่ SSL กลายเป็นมาตรฐานสำหรับการจราจรเว็บ โปรโตคอลความจริงจะกลายเป็นมาตรฐานสำหรับข้อมูล และนั่นคือวิธีที่เราป้องกันไม่ให้ AI ทำให้โลกจมลงในเสียงรบกวน” Myson สรุป














