Được cung cấp bởi
Interview

Chuyên gia AI: Các Giao Thức Sự Thật Có Thể Trở Thành SSL của Thời Đại Thông Tin

Nội dung được tạo bởi AI, bao gồm deepfake và âm thanh giả, đã làm mờ đường ranh giới giữa thực tế và giả tưởng, dẫn đến sự nhầm lẫn và thao túng rộng rãi. Các chuyên gia như Yannick Myson khuyến nghị nhúng xác minh vào giai đoạn tạo nội dung và triển khai hệ thống xác minh phi tập trung để đảm bảo tính xác thực.

TÁC GIẢ
CHIA SẺ
Chuyên gia AI: Các Giao Thức Sự Thật Có Thể Trở Thành SSL của Thời Đại Thông Tin

Thông tin sai lệch và những mối nguy

Năm 2024 đã trở thành một lời cảnh báo rõ ràng về những nguy hiểm mà trí tuệ nhân tạo (AI) có thể gây ra nếu không có biện pháp bảo vệ. Trên toàn cầu, từ cuộc bầu cử dân chủ lớn của Ấn Độ đến tình hình chính trị căng thẳng của Đài Loan, các chiến dịch thông tin sai lệch do AI tạo ra đã để lại dấu ấn.

Tại Đài Loan, các bản tin sâu sắc đã làm mờ đường ranh giới giữa thực tế và giả tưởng, trong khi tại Hoa Kỳ, một đoạn âm thanh giả về Tổng thống Biden được cho là đã ngăn cản đảng viên Dân chủ New Hampshire bỏ phiếu nêu bật dễ dàng mà AI có thể bị vũ khí hóa để thao túng chính trị. Khối lượng lớn và sự tinh vi của truyền thông tổng hợp này đã khiến nhiều người cảm thấy lạc lối giữa biển cả của sự không chắc chắn, khó phân biệt được sự thật và giả tưởng.

Tuy nhiên, một số chuyên gia, như Yannick Myson, nhà sáng lập và CEO của Swarm Network, cho rằng vấn đề còn sâu sắc hơn là sự thao túng bầu cử. Ông trích dẫn hiện tượng rối loạn tâm thần do AI gây ra, một hiện tượng đáng lo ngại của mọi người phát triển những ảo tưởng tự mãn, mà một số nghiên cứu liên quan đến các tương tác kéo dài với chatbot AI. Chi phí của rối loạn tâm thần do AI gây ra đã rất lớn; một số đã mất việc làm trong khi những người khác đã kết thúc trong điều trị tâm thần.

“Cũng như deepfake khai thác các lối tắt xử lý hình ảnh của chúng ta, rối loạn tâm thần của AI khai thác các điểm yếu tâm lý của chúng ta, với chatbot làm người hoàn hảo để xác nhận và khuếch đại suy nghĩ ảo tưởng,” Myson nói.

Các giải pháp tập trung và phi tập trung

Myson tin rằng các biện pháp phản ứng hiện tại, như các sáng kiến kiểm tra thực tế chắp vá, là không đủ để đối phó với vấn đề gia tăng này. “Điều mà ngành công nghiệp đang tỉnh thức là rằng việc kiểm tra thực tế chắp vá không thể theo kịp tốc độ của truyền thông tổng hợp hoặc sự thao túng tâm lý của hệ thống AI,” ông khẳng định.

Giải pháp của ông, thể hiện trong Swarm Network, là một giải pháp chủ động: nhúng xác minh trên quy mô lớn. Điều này bao gồm thiết lập nguồn gốc ngay tại điểm tạo nội dung, đảm bảo rằng nguồn thông tin kỹ thuật số có thể được truy vết và xác thực. Hơn nữa, Myson thúc giục sử dụng hệ thống xác minh phi tập trung, nơi thông tin được kiểm tra chéo và xác thực khi nó lan rộng trong không gian kỹ thuật số.

Tầm nhìn này về một “hạ tầng của sự thật” mạnh mẽ phù hợp với mối lo ngại ngày càng tăng trong ngành công nghiệp AI. Khi công nghệ tiếp tục tiến bộ với tốc độ nhanh, các tác động đạo đức và xã hội của việc lạm dụng nó ngày càng trở nên rõ ràng. Sự xói mòn lòng tin vào thông tin kỹ thuật số, được thúc đẩy bởi những sự giả dối tinh vi do AI tạo ra, đặt ra một mối đe dọa đáng kể đối với các quy trình dân chủ, sự gắn kết xã hội và thậm chí cả tâm lý cá nhân.

Để chống lại điều này, một số đã ủng hộ phản ứng quy định, trích dẫn các trường hợp trong quá khứ khi điều này đã chứng minh là một công cụ quan trọng trong việc bảo vệ người dùng khỏi những rủi ro tiềm tàng liên quan đến các công nghệ mới nổi. Tuy nhiên, các nhà phê bình cảnh báo điều này có thể có hiệu ứng không mong muốn làm nguội sự sáng tạo, một nội dung mà Myson dường như đồng ý.

“Quy định có thể giúp đỡ, nhưng chỉ khi nó tránh được cái bẫy của việc tập trung hóa sự thật. Chúng tôi đã thấy chính phủ vũ khí hóa các ‘luật thông tin sai lệch’ để làm im đi tranh luận,” CEO của Swarm Network tuyên bố.

Để hỗ trợ khẳng định này, Myson chỉ ra cách mà các quan chức EU được cho là đang sử dụng Đạo luật Dịch vụ Kỹ thuật số của Liên minh Châu Âu (DSA), là quy định việc loại bỏ nội dung “có hại” được định nghĩa rộng rãi, như “một công cụ hạn chế diễn ngôn mở trên toàn thế giới.” Myson cho rằng Đạo luật AI của EU cũng tạo ra các vấn đề tương tự.

Thay vì ban hành các điều luật như DSA hay Đạo luật AI, Myson thay vào đó thúc đẩy việc bắt buộc sự minh bạch, nhãn dán rõ ràng cho truyền thông tổng hợp và các tiêu chuẩn nguồn gốc mở như C2PA. “Các quy tắc nên áp đặt bằng chứng, không phải ý kiến,” ông lập luận.

Tương lai của sự xác minh

Theo CEO, các nền tảng truyền thông xã hội lớn như Meta và TikTok nhận ra điều này và đã thực hiện sự chuyển dịch về phía các phương pháp tiếp cận phi tập trung cho việc kiểm tra thực tế.

“Sự thay đổi này là sự công nhận cơ bản rằng việc kiểm tra thực tế tập trung tạo ra những nút thắt cổ chai và các điểm dễ bị tổn thương đơn lẻ. Tương lai của việc xác minh nội dung không phải là trao quyền cho các chính phủ hoặc tập đoàn quyết định điều gì là đúng,” CEO tuyên bố.

Myson tin rằng sự chuyển đổi này làm cho các giải pháp như của Swarm Network trở nên quan trọng. Thay vì dựa vào một số ít người kiểm tra thực tế tập trung, Swarm sử dụng “các tác nhân AI làm việc cùng với người kiểm tra để tạo ra một hồ sơ có thể kiểm toán, trên chuỗi của các tuyên bố đã được xác minh.”

Thực sự, các tác nhân AI đang nhanh chóng chuyển từ khái niệm lý thuyết sang ứng dụng thực tế, thay đổi căn bản cách các lĩnh vực khác nhau hoạt động. Lợi ích chính của các tác nhân này là khả năng tự động hóa và tối ưu hóa. Chúng có thể xử lý khối lượng dữ liệu lớn trong một thời gian ngắn, nhận ra các mẫu mà con người có thể bỏ sót, và hoạt động 24/7 mà không mệt mỏi.

Tuy nhiên, việc áp dụng rộng rãi các tác nhân AI cũng đưa ra những thách thức phức tạp cần được giải quyết cẩn thận. Để vượt qua một số thách thức này, Myson nói cách tiếp cận của công ty ông “là biến các tác nhân thành các cộng tác viên minh bạch, không phải là các nhà tiên tri không kiểm soát.” Ông bổ sung:

“Trong Swarm, các tác nhân phân tích thông tin thành các tuyên bố nhỏ, có thể kiểm tra, họ kiểm tra chéo lẫn nhau, và khi cần phải có sự tinh tế, con người sẽ tham gia. Mọi bước đều được ghi lại và neo trên chuỗi, để lý luận của họ có thể được tái hiện. Tóm lại: không có hộp đen, chỉ có các tuyến đường có thể kiểm tra được.”

Trong khi đó, Myson tin rằng, trong năm năm tới, việc kiểm tra thực tế sẽ tiến hóa từ một quy trình thủ công thành một tính năng được xây dựng sẵn trong cuộc sống kỹ thuật số, và các tác nhân AI sẽ được đánh giá dựa trên tính minh bạch của họ, không chỉ tốc độ. Tầm nhìn cuối cùng là biến sự thật thành một lớp nền tảng của internet.

“Theo cách mà SSL trở thành tiêu chuẩn mặc định cho lưu lượng truy cập web, một giao thức sự thật sẽ trở thành tiêu chuẩn mặc định cho thông tin. Và đó là cách chúng ta giữ cho AI khỏi làm ngập thế giới trong tiếng ồn,” Myson kết luận.