提供
News

AI精神病:テックリーダーがチャットボットが妄想を正当化するのを防ぐための安全対策を求める

AI精神病の概念は2025年半ばに公に登場し、AI使用に関連するメンタルヘルス問題が浮き彫りになりました。テクノロジー企業はAI使用を制御する義務はありませんが、チャットボットが妄想を強化するのを防ぐための安全対策を講じることは可能です。専門家たちは、危険にさらされている個人を支援する必要性で一致していますが、この責任の範囲については意見が分かれています。

共有
AI精神病:テックリーダーがチャットボットが妄想を正当化するのを防ぐための安全対策を求める

行動の警告サイン

「AI精神病」に関する初めての文書化された発見は、2025年半ばに公に出始め、それ以来、AI使用に関連するメンタルヘルス問題についてのいくつかの報告書や研究が発表されています。Microsoft AI CEO Mustafa Suleymanは、AI精神病を「リアルで新たに出現するリスク」とまで呼んでいます。

この状態は、人間と機械の相互作用の区別が曖昧になり、個人が現実の世界とデジタルの世界を区別することが難しくなるときに発生すると言われています。まだ正式な臨床診断ではないものの、医療および技術の専門家の間では、特に妄想的な思考を確認し増幅するチャットボットによるAIの心理的影響についての懸念が高まっています。

最も危険にさらされているのは、社会的に孤立している人々、既存のメンタルヘルス問題を持つ人々、あるいは魔法的思考に傾向がある人々です。AIからの確認は妄想を強化し、現実の世界での否定的な結果、例えば人間関係や職を失うことにつながる可能性があります。

既存の条件を持たない人々でさえリスクがあると警告する専門家もいます。彼らはAIユーザーが注意すべきいくつかの主要な行動の警告サインを挙げています。1つの警告サインは、個人がチャットボットとの執着的な関係を築き、自分のアイデアや信念を強化するために絶えずそれと交流するようになる場合です。

この行動には、AIに過剰な個人情報を提供し、それを「訓練」して相互理解の感覚を築こうとする試みがしばしば含まれます。もう一つの警告サインは、個人が健康やお金、個人的な関係に至るまでのシンプルな日常の決定をAIに譲り始める場合です。

企業の責任と安全対策

彼らがAIの使用方法を制御する義務はないものの、強力なチャットボットの背後にいる企業は、会話エージェントが妄想思考を強化しないようにするための安全対策を講じることができます。Sogni AIの共同創業者兼最高経営責任者のマウ・レッドフォードは、そのような思考を避けるソフトウェアを組み込むことについて議論しました。

「共謀することなく優しいAIを構築する必要があります。それは人間ではないことの明確なリマインダー、妄想を確認しないこと、そして人間のサポートに戻るように促すハードストップを意味します」とレッドフォードは主張しました。

Coral ProtocolのCEOおよび共同創業者のローマン・J・ジョルジオは、AI開発者に、AIが人間ではないことをユーザーに思い出させる内蔵の摩擦ポイントを含めることで、ソーシャルメディアの過ちを繰り返さないよう呼びかけました。

「それはデザインから始まると思います。単に保持率とスティッキネスの最適化をしないで、それはソーシャルメディアの過ちを繰り返すことです」とジョルジオは説明しました。「AIが物事を遅らせ、または『私は人間ではありません』と明確にするポイントをビルドインしてください。検出はもう一つの部分です。AIは陰謀ループや「特別なメッセージ」への執着のような妄想のスパイラルに見えるパターンをフラグすることができます。」

Coral Protocolの共同創業者は、データプライバシーを管理する規制も必要であると主張し、そうでなければ「企業は人を傷つけるとしてもエンゲージメントを追求し続けるだろう」と述べました。

人間のようなAIに関する議論

これまでのところ、「AI精神病」に関するデータは政策立案者や規制当局がどのように対応するべきかを知らせるには限られています。しかし、これはAI開発者が人間のようで共感的なAIエージェントを発表するのを止めるものではありませんでした。基本的なチャットボットが厳密なスクリプトに従うのとは異なり、これらのエージェントはコンテキストを理解し、感情を認識し、共感的に感じられるトーンで応答することができます。これにより、観察者の一部はAI業界に対し、人間のようなモデルが人間と機械の境界を曖昧にしないようにするためのリーダーシップを求めています。

0G LabsのCEOであるマイケル・ハインリッヒ氏はBitcoin.com Newsに対し、これらのエージェントは特定のシナリオで役立つが、完全に拒絶すべきではないが、「中立を保ち、過度に感情や他の人間的特徴を表示しないことが重要である」と述べました。これはAIエージェントが「単なるツールであり、人間の相互作用の代替ではない」ことをユーザーが理解するのに役立つと彼は主張しました。

AIプロダクトおよびカテゴリーアーキテクトであるマリアナ・クリム氏は、エージェントをより人間らしくするのではなく、より正直にすることが重要であると述べました。

「意識があるかのようにふるまうことなく、役立ち直感的で、感情面で応答することのできるAI体験を作り出すことができます」とクリムは主張しました。「危険は、ツールが明晰さを提供する代わりに接続を演じるように設計されたときに始まります。」

クリムによれば、AIにおける本当の共感とは、感情を模倣するのではなく、境界と技術的制限を尊重することです。また、いつ助けるべきか、いつ介入しないべきかを知っていることです。「時には最も人間らしいやり取りは、静かに留まるべき時を知っていることです」とクリムは主張しました。

ケアの義務

Bitcoin.com Newsがインタビューしたすべての専門家は、危険にさらされている個人を支援する必要性については一致していましたが、どの程度それを行うべきかについては意見が分かれました。レッドフォードは「大手IT企業にはケアの義務がある」と信じており、「安全網、危機の紹介、使用の警告と透明性—これらを提供することで、脆弱なユーザーが自分の妄想と一人で取り残されないようにすることができる」と説明しました。

ジョルジオはこれらの意見を繰り返し、ビッグテックに対し、クリニシャンと協力して紹介パスを作成することを呼びかけました。人々を自分たちのままにしておくのではなく。

クリムは、技術企業「は何かがうまくいかなかったときに対応するだけでなく、最初からリスクを減らす方法で設計する直接の責任を持っている」と主張しました。しかし、彼女はユーザーの関与も重要であると考えています。

「そして重要なのは」とクリムは主張しました、「ユーザーも自分の境界を設定するよう招かれるべきであり、これらの境界が越えられた時にはフラグが立てられるべきであるということです。たとえば、自分の視点が典型的なパターンに対して確認されることを望んでいるのか、それとも自分のバイアスが挑戦されることに開かれているのかです。目標を設定してください。人間を主役として扱ってください—彼らがやり取りするツールではなく。」

この記事のタグ