マリアナ・クリム氏は、破壊的技術の専門家であり、人工知能(AI)が単純なタスクの実行を超えて、ユーザーが感情や自己認識をナビゲートするのを助ける「感情の鏡」に進化する未来を描いています。彼女は、AIが微妙な感情の手がかりを認識し、ユーザーが自分の感情についての洞察を得るのを助けるべきだと考えています。
Vyvo COO: AIの次のステップ - セルフアウェアネスのためのツールとなること

人工知能を「感情の鏡」として
Vyvo Smart ChainのCOO兼共同創設者であるマリアナ・クリム氏は、人工知能(AI)の未来についての迫力あるビジョンを打ち出し、人間のユーザーにとって「感情の鏡」として機能する可能性を示唆しました。最近の議論で、クリム氏は自己認識を促進し、感情処理を支援し、誠実な内省のための空間を作り出すAIの構築に関する考えを共有しました。
Twitter、Snapchat、Wazeなどの技術大手で経験を積んだクリム氏は、そのような感情に調整されたAIの構築には信頼を組み込む必要があると強調しました。「私たちは単なるツールを作っているのではありません。私たち自身を映し出すことができる仲間を形成しているのです」と彼女は語りました。
Vyvo Smart Chainの共同設立者のビジョンは、ユーザーのトーンや行動の変化における微妙なパターンを認識するAIの能力に集中しています。これにより、個人が自覚していない可能性のある洞察を引き出す手助けをします。
「AIは穏やかな感情の鏡として機能する可能性があります。トーンのパターンを認識し、行動の変化に気付き、個人が自分だけでは表現できないような洞察を引き出す手助けをすることができるのです」とクリム氏は説明しました。
クリム氏は、ユーザーの所有権とプライバシーが彼女の哲学の中心であると主張しています。「それが実現するためには、信頼がアーキテクチャに組み込まれなければなりません。AIはユーザーのものでなければならないのです」と彼女は主張しました。
この原則は、クリム氏が述べるように、Vyvoのアプローチの中心であり、リアルタイムの生体信号と分散型メモリ(データ)を積極的に組み合わせてこの「感情の鏡」を作成します。クリム氏の視点は、主に認知知能とタスク完了を強調する多くのAIソリューションの伝統的な焦点とは異なります。
認知的推論とは異なり、感情は非常に主観的で文脈に依存します。実際のところ、AIは感情的な反応をシミュレートすることはできますが、真の感情知識には経験、共感、そして個人的な文脈が必要であり、これはAIには欠如しています。しかし、特にカスタマーサービスやソーシャルロボティクスの分野では、感情に基づくインタラクションを取り入れる試みが続いています。
Web3がAI倫理に「強力な答え」を持つ
その一方で、クリム氏はBitcoin.com Newsに対して、AIが人間の生活の中でより微妙な役割を果たし、感情的成長や自己理解のためのサポートツールとして機能する未来を描いていると語りました。
「目標は感情をシミュレートすることではありません。人間の経験を意識と文脈で支えることです」とクリム氏は明確にし、目的は人工的な感情を作り出すことではなく、AI駆動の洞察を通じて人間の感情知識を向上させることであると強調しました。
AIの時代が展開していく中で、人工知能がどのようにユーザーと相互作用し、学習するかという疑問は重要です。クリム氏は、継続的な成長を通じてユーザーと信頼を築くことができる記憶ベースのAIが、意味のある人間と機械の関係のために望ましいだけでなく、必要であると主張しています。それでも、彼女は、これが強固なユーザー制御、プライバシー、および明示的な同意に基づいて構築されなければならないと強く信じています。
Web2で一般的なプライバシー侵害の追跡方法とは対照的に、クリム氏はAIエージェントがエシカルかつ安全にユーザーとのインタラクションを学習し、記憶する未来を描いています。「絶対にそうですし、そうでなければなりません。記憶ベースのAIは、単なる機能ではなく、人間と機械の間の意味のある、パーソナライズされた関係を構築するために不可欠です」とクリム氏は述べました。
このビジョンを達成するために、Vyvo Smart ChainはデータNFTを中心にシステムを設計しました。このアプローチは、クリム氏によると、ユーザーが自分のデータをしっかりと制御できるようにします。「だからこそ、Vyvo Smart ChainでデータNFTを中心にシステムを構築しました。各ユーザーは自分の暗号化されたメモリーコンテナを保有します。AIは明示的で取り消し可能な同意がある場合にのみそれにアクセスできます。スクレーピングもバックドアも集中ロギングもありません。」
AIが5年後にどのようになるかについて、クリム氏はそれが反応的なツールから「協力的な存在」に進化すると予測しています。それでも、彼女はAIの使用が増加するにつれて、倫理的な使用が課題となると考えています。
「しかし、最大の課題は技術的なものではなく倫理的なものです。規制当局はデータの主権、記憶、同意に関する問題に直面する必要があります。誰が訓練データを所有しているのか?ユーザーが育てたAIの記憶に対してどのような権利を持っているのか?」とクリム氏は述べています。
しかし、彼女は、これらの問題には新たな枠組みが必要であるが、Web3、そして従来の規制当局ではないものが「力強い答え」を提供していると述べています。
「分散型の同意レイヤー、ユーザー所有のメモリ、透明なデータフローは、単なるポリシーではなく、設計によって規制のガードレールとして機能することができます。課題は現実です。しかし、チャンスも現実です」とクリム氏は説明します。









