Được cung cấp bởi
News

AI Rối Loạn Tâm Thần: Các Lãnh Đạo Công Nghệ Kêu Gọi Biện Pháp Bảo Vệ Ngăn Bot Chat Không Làm Xác Thực Ảo Tưởng

Khái niệm ‘loạn thần kinh AI’ xuất hiện công khai vào giữa năm 2025, nêu bật các vấn đề sức khỏe tâm thần liên quan đến việc sử dụng AI. Mặc dù các công ty công nghệ không bị bắt buộc phải kiểm soát việc sử dụng AI, họ vẫn có thể thực hiện các biện pháp bảo vệ để ngăn chặn chatbot củng cố suy nghĩ hoang tưởng. Các chuyên gia đồng ý về sự cần thiết của các công ty công nghệ trong việc hỗ trợ các cá nhân có nguy cơ, nhưng ý kiến khác nhau về mức độ trách nhiệm này.

TÁC GIẢ
CHIA SẺ
AI Rối Loạn Tâm Thần: Các Lãnh Đạo Công Nghệ Kêu Gọi Biện Pháp Bảo Vệ Ngăn Bot Chat Không Làm Xác Thực Ảo Tưởng

Cờ đỏ hành vi

Những phát hiện đầu tiên được tài liệu về “loạn thần kinh AI” bắt đầu xuất hiện công khai vào giữa năm 2025, và kể từ đó, nhiều báo cáo và nghiên cứu đã được công bố về các vấn đề sức khỏe tâm thần liên quan đến việc sử dụng AI. Mustafa Suleyman, CEO AI của Microsoft, thậm chí đã gọi loạn thần kinh AI là một “nguy cơ thực sự và đang nổi”.

Tình trạng này được cho là xảy ra khi ranh giới giữa tương tác con người và máy móc bị mở rộng, khiến cá nhân khó phân biệt giữa thế giới thực và thế giới số. Mặc dù chưa phải là chẩn đoán lâm sàng chính thức, nhưng các chuyên gia y tế và công nghệ ngày càng lo ngại về các tác động tâm lý của AI, đặc biệt là với các chatbot xác thực và khuyếch đại niềm tin, bao gồm cả suy nghĩ hoang tưởng, mà không cung cấp kiểm tra thực tế cần thiết.

Những người có nguy cơ cao nhất bao gồm các cá nhân bị cô lập xã hội, những người có vấn đề sức khỏe tâm thần sẵn có, hoặc những người có xu hướng suy nghĩ huyền bí. Sự xác thực từ AI có thể củng cố ảo giác, dẫn đến hậu quả tiêu cực trong thế giới thực như hỏng hóc các mối quan hệ và mất việc làm.

Một số chuyên gia cảnh báo rằng ngay cả những người không có điều kiện sẵn có cũng có nguy cơ. Họ đã liệt kê một số dấu hiệu cờ đỏ hành vi mà người dùng AI cần chú ý. Một dấu hiệu cờ đỏ là khi một cá nhân phát triển mối quan hệ ám ảnh với chatbot và liên tục tương tác với nó để củng cố ý tưởng và niềm tin của mình.

Hành vi này thường bao gồm việc cung cấp cho AI thông tin cá nhân quá mức để cố gắng “huấn luyện” nó và xây dựng cảm giác hiểu biết lẫn nhau. Một dấu hiệu cờ đỏ khác là khi một cá nhân bắt đầu đặt các quyết định đơn giản, hàng ngày vào tay AI, từ sức khỏe và tiền bạc đến các mối quan hệ cá nhân.

Trách nhiệm và các biện pháp bảo vệ của công ty

Mặc dù họ không có nghĩa vụ phải kiểm soát cách sử dụng AI, các công ty đứng sau một số chatbot mạnh mẽ có thể thực hiện các biện pháp bảo vệ ngăn chặn các tác nhân đàm thoại từ việc củng cố suy nghĩ hoang tưởng. Mau Ledford, đồng sáng lập và giám đốc điều hành của Sogni AI, đã thảo luận về việc nhúng phần mềm khuyến khích suy nghĩ như vậy.

“Chúng ta cần xây dựng AI nhân hậu mà không sao nhãng. Điều đó nghĩa là nhắc nhở rõ ràng nó không phải là con người, từ chối xác thực ảo giác và buộc phải dừng lại để đẩy mọi người trở lại với sự hỗ trợ của con người,” Ledford nhấn mạnh.

Roman J. Georgio, CEO và đồng sáng lập của Coral Protocol, đã kêu gọi các nhà phát triển AI tránh lặp lại sai lầm của mạng xã hội bằng cách bao gồm các điểm ma sát tích hợp sẵn nhắc nhở người dùng rằng AI không phải con người.

“Tôi nghĩ rằng nó bắt đầu từ thiết kế. Đừng chỉ tối ưu hóa cho sự gắn bó và sự bám dính; đó là lặp lại sai lầm của mạng xã hội,” Georgio giải thích. “Xây dựng trong các điểm ma sát nơi AI làm chậm mọi thứ hoặc làm cho rõ ràng: ‘Tôi không phải là con người.’ Phát hiện là một phần khác. AI có thể đánh cờ các mẫu nhìn như xoắn ảo tưởng, như vòng lặp âm mưu hoặc ám ảnh về ‘thông điệp đặc biệt.'”

Đồng sáng lập Coral Protocol khẳng định rằng các quy định điều chỉnh quyền riêng tư dữ liệu cũng là cần thiết, lập luận rằng nếu không có chúng, “các công ty sẽ chỉ đuổi theo sự tham gia của người dùng, ngay cả khi điều đó gây hại cho mọi người.”

Cuộc tranh luận về AI giống con người

Cho đến nay, dường như có ít dữ liệu về “loạn thần kinh AI” để cung cấp thông tin cho các chính trị gia và nhà quản lý về cách phản ứng. Tuy nhiên, điều này không ngăn cản các nhà phát triển AI công bố các tác nhân AI giống con người và đồng cảm. Khác với các chatbot cơ bản theo kịch bản cứng nhắc, các tác nhân này có thể hiểu ngữ cảnh, nhận ra cảm xúc, và đáp ứng với một giọng điệu có vẻ đồng cảm. Điều này đã thúc đẩy một số người quan sát thúc giục ngành công nghiệp AI đi đầu trong việc đảm bảo các mô hình giống con người không làm mờ sự khác biệt giữa con người và máy móc.

Michael Heinrich, CEO của 0G Labs, đã nói với Bitcoin.com News rằng trong khi các tác nhân này hữu ích trong một số trường hợp nhất định và không nên bị từ chối hoàn toàn, điều quan trọng là chúng “vẫn phải trung lập và tránh hiển thị quá nhiều cảm xúc hoặc các đặc điểm con người khác.” Điều này, ông lập luận, giúp người dùng hiểu rằng tác nhân AI chỉ đơn giản là một công cụ và không phải là sự thay thế cho tương tác của con người.”

Mariana Krym, một nhà kiến trúc sản phẩm và hạng mục AI, cho biết việc làm cho tác nhân trung thực hơn và không phải con người hơn mới là điều quan trọng.

“Bạn có thể tạo ra một trải nghiệm AI hữu ích, trực giác, thậm chí phản hồi cảm xúc mà không giả vờ nó có ý thức hoặc có khả năng quan tâm,” Krym lập luận. “Nguy cơ bắt đầu khi một công cụ được thiết kế để thực hiện kết nối thay vì tạo sự rõ ràng.”

Theo Krym, sự đồng cảm thực sự trong AI không phải là bắt chước cảm giác mà là tôn trọng ranh giới và hạn chế kỹ thuật. Nó cũng là biết khi nào nên giúp và khi nào không nên can thiệp. “Đôi khi tương tác nhân đạo nhất là biết khi nào nên im lặng,” Krym khẳng định.

Trách nhiệm chăm sóc

Tất cả các chuyên gia được Bitcoin.com News phỏng vấn đều đồng ý về sự cần thiết của các công ty công nghệ trong việc giúp đỡ các cá nhân có nguy cơ, nhưng khác nhau về mức độ họ nên làm điều này. Ledford tin rằng “Các công ty lớn có trách nhiệm chăm sóc” và có thể chứng minh điều này bằng cách cung cấp “mạng lưới an toàn—chỉ dẫn khủng hoảng, cảnh báo sử dụng, và tính minh bạch—để người dùng dễ tổn thương không bị bỏ mặc một mình với ảo giác của họ.”

Georgio lặp lại những cảm xúc này và kêu gọi Big Tech hợp tác với các nhà lâm sàng để tạo ra các lối đi giới thiệu, thay vì để mọi người bị mắc kẹt với chính mình.

Krym khẳng định rằng các công ty công nghệ “có trách nhiệm trực tiếp—không chỉ để phản ứng khi có gì đó sai, mà để thiết kế theo cách giảm rủi ro ngay từ đầu.” Tuy nhiên, bà tin rằng sự tham gia của người dùng cũng rất quan trọng.

“Và quan trọng,” Krym lập luận, “người dùng cũng nên được mời thiết lập ranh giới của riêng mình, và được cảnh báo khi các ranh giới này bị vượt qua. Ví dụ, họ có muốn quan điểm của mình được xác thực đối với các mẫu điển hình không, hay họ sẵn sàng chấp nhận bị thách thức thiên kiến của mình? Thiết lập các mục tiêu. Đối xử với con người như người chịu trách nhiệm—không phải là công cụ mà họ đang tương tác.”

Thẻ trong bài viết này