技术支持
News

AI精神病:科技领袖呼吁采取措施防止聊天机器人验证妄想

AI精神病的概念在2025年中期首次被公众注意到,强调了与AI使用相关的心理健康问题。虽然科技公司并未被要求控制AI的使用,但它们仍可以实施安全措施,防止聊天机器人加强妄想思维。专家一致认为科技公司需要支持高风险个体,尽管对这一责任的程度意见不一。

分享
AI精神病:科技领袖呼吁采取措施防止聊天机器人验证妄想

行为预警信号

有关“AI精神病”的首次文献发现于2025年中期开始浮出水面,此后有多份报告和研究发表,探讨与AI使用相关的心理健康问题。微软AI的首席执行官Mustafa Suleyman甚至将AI精神病称作“真实且新兴的风险”。

据说这种情况发生在人与机器互动的界限模糊时,使得个体难以区分现实世界和数字世界。虽然尚未形成正式的临床诊断,但医学和技术专家越来越担心AI,尤其是验证和放大信念的聊天机器人的心理影响,包括妄想思维,而没有提供必要的现实检查。

那些最有风险的是社会孤立的人,有既存心理健康问题的人,或倾向于神秘思维的人。来自AI的验证可以加强妄想,导致现实世界的负面后果,比如关系破裂和失去工作。

一些专家警告说,即使是没有既存条件的人也有风险。他们标识了AI用户需警惕的几项关键行为预警信号。一个预警信号是当一个人与聊天机器人发展出痴迷关系,并总是与其互动以强化自己的想法和信仰。

这种行为通常包括向AI输入过多的个人信息,试图“训练”它并建立一种相互理解的感觉。另一个预警信号是当个体开始将简单的日常决策依赖于AI,涉及健康、金钱到个人关系。

企业责任与保障措施

虽然不被要求控制AI的使用,但一些强大聊天机器人的背后公司可以实施保障措施,以防止对话代理加强妄想思维。Sogni AI的联合创始人兼首席执行官Mau Ledford讨论了嵌入软件以阻止这种思维的可能。

“我们需要构建仁慈但不妥协的AI。这意味着清楚地提醒它不是人类,拒绝验证妄想,并强制中止以将人们推回到人类支持上,”Ledford断言。

Coral Protocol的首席执行官兼联合创始人Roman J. Georgio敦促AI开发者避免重复社交媒体的错误,建议通过内置的摩擦点提醒用户AI不是人类。

“我认为一切从设计开始。不要只优化留存率和粘性;这就是在重蹈社交媒体的错误,”Georgio解释道。“在AI中设置摩擦点,使其减缓节奏或明确宣布:‘我不是人类。’检测是另一部分。AI可以标记出看似妄想螺旋的模式,比如阴谋循环或对‘特殊信息’的固执。”

Coral Protocol的联合创始人强调需要管理数据隐私的法规,否则“公司只会追求参与度,即使它对人们造成伤害。”

人性化AI的辩论

目前,尚无足够的“AI精神病”数据供政策制定者和监管者参考。然而,这并未阻止AI开发者推出有人情味和同理心的AI代理。与遵循固定脚本的基础聊天机器人不同,这些代理可以理解语境,识别情绪,并以同情的语气回应。这促使一些观察者敦促AI行业在确保人性化模型不使人机界限模糊方面发挥领导作用。

0G Labs的首席执行官Michael Heinrich告诉Bitcoin.com News,虽然这些代理在特定情况下很有用,不应被完全拒绝,但必须确保它们“保持中立,避免过多展示情感或其他人类特点。”他认为这有助于用户理解AI代理“只是工具,而不是人类互动的替代品。”

AI产品和类别架构师Mariana Krym表示,使代理更诚实而非更人性化才是关键。

“你可以创造一个既有用又直观、甚至情感响应的AI体验,但不假装它是有意识的或有能力关心,”Krym辩称。“危险从工具设计为实现联系而非促进清晰开始。”

Krym认为,AI中的真正同情不是模仿感觉,而是尊重边界和技术限制。它也包括何时提供帮助以及何时不干涉。Krym坚称:“有时最有人的互动是知道何时保持沉默。”

责任关怀

接受Bitcoin.com News采访的所有专家都一致认为科技公司应帮助高风险个体,但对其应承担的责任程度存在分歧。Ledford认为“大科技公司有责任关怀”并可通过提供“安全网——危机推荐、使用警告和透明性——来证明这一点,这样脆弱的用户不会被自己的妄想所困。”

Georgio呼应这些看法,并敦促大科技公司与临床医生合作建立推荐途径,而不是让人们自生自灭。

Krym坚持科技公司“有直接责任——不仅是问题发生时响应,还需在设计上降低风险。”然而,她认为用户的参与也至关重要。

“而且重要的是,”Krym辩称,“用户也应该被邀请设定自己的边界,并在这些边界被跨越时得到提醒。例如,他们希望自己的观点与典型模式进行验证,还是愿意接受他们的偏见被挑战?设定目标。把人类当作决策者——而不是他们正在互动的工具。”