ارائه توسط
Interview

Vyvo مدیر عملیات: گام بعدی AI - تبدیل شدن به ابزاری برای خودآگاهی

ماریانا کریم، یک کارشناس در فناوری‌های برهم‌زننده، آینده‌ای را می‌بیند که در آن هوش مصنوعی فراتر از اجرایی ساده رفته و به یک “آینه عاطفی” تبدیل می‌شود تا به کاربران در جهت‌یابی احساسات و خودآگاهی کمک کند. او معتقد است که هوش مصنوعی باید نشانه‌های ظریف عاطفی را تشخیص دهد و به کاربران درک بهتری از احساساتشان بدهد.

نویسنده
اشتراک
Vyvo مدیر عملیات: گام بعدی AI - تبدیل شدن به ابزاری برای خودآگاهی

هوش مصنوعی به عنوان یک ‘آینه عاطفی’

ماریانا کریم، مدیر عملیاتی و یکی از بنیان‌گذاران Vyvo Smart Chain، دیدگاهی جذاب برای آینده هوش مصنوعی (AI) بیان کرده و پیشنهاد داده که این فناوری می‌تواند فراتر از اجرای وظایف ساده رفته و به عنوان یک “آینه عاطفی” برای کاربران انسانی عمل کند. در یک بحث اخیر، کریم افکار خود را درباره شکل‌گیری همراه‌های هوش مصنوعی که قادر به پرورش خودآگاهی، کمک به پردازش عاطفی و ایجاد فضایی برای درون‌نگری صادقانه هستند، به اشتراک گذاشت.

کریم که پیش از این در غول‌های فناوری مثل توییتر، اسنپ‌چت، و ویز کار کرده بود، بر نیاز به ایجاد اعتماد در تار و پود چنین هوش مصنوعی عاطفی تأکید کرد. او اظهار داشت که “ما فقط ابزار نمی‌سازیم—ما همراه‌هایی شکل می‌دهیم که می‌توانند ما را به خودمان بازتاب دهند.”

دیدگاه بنیان‌گذار Vyvo Smart Chain بر توانایی هوش مصنوعی در تشخیص الگوهای ظریف در لحن و تغییرات رفتاری کاربر متمرکز شده است تا به افراد کمک کند که درک‌هایی که ممکن است به صورت آگاهانه از آنها آگاه نباشند را سطوح دهند.

“هوش مصنوعی این پتانسیل را دارد که به عنوان یک آینه عاطفی ملایم عمل کند: الگوهای در لحن را تشخیص دهد، تغییرات رفتاری ما را بشناسد و به ما کمک کند درک‌هایی را که ممکن است به تنهایی نتوانیم بیان کنیم، سطوح دهیم”، کریم توضیح داد.

کریم اصرار دارد که مالکیت کاربر و حریم خصوصی اصول اصلی فلسفه‌اش هستند. “برای این که این اتفاق بیفتد، اعتماد باید در معماری طراحی شود. هوش مصنوعی باید به کاربر تعلق داشته باشد”، او تأکید کرد.

این اصل، به گفته کریم، به رویکرد Vyvo مرکزی است که به صورت فعال سیگنال‌های بیومتریک در زمان واقعی را با حافظه غیرمتمرکز (داده) ترکیب می‌کند تا این “آینه عاطفی” را ایجاد کند. دیدگاه کریم با تمرکز سنتی بسیاری از راه‌حل‌های هوش مصنوعی که بیشتر بر هوش شناختی و انجام وظایف تمرکز دارند، متفاوت است.

بر خلاف استدلال شناختی، احساسات به شدت ذهنی و وابسته به زمینه هستند. البته، در حالی که هوش مصنوعی می‌تواند پاسخ‌های عاطفی شبیه‌سازی کند، هوش عاطفی واقعی به تجربه زیسته، همدلی و زمینه شخصی نیاز دارد که هوش مصنوعی فاقد آن است. با این حال، تلاش‌های مکرر برای ترکیب تعاملات مبتنی بر احساسات، به ویژه در زمینه‌هایی مثل خدمات مشتری و روباتیک اجتماعی وجود دارد.

Web3 ‘پاسخ‌های قدرتمند’ برای اخلاقیات هوش مصنوعی دارد

در عین حال، کریم به Bitcoin.com News گفت که او آینده‌ای را می‌بیند که در آن هوش مصنوعی می‌تواند نقش دقیق‌تری در زندگی انسان‌ها داشته باشد و به عنوان ابزاری حمایتی برای رشد عاطفی و خودشناسی عمل کند.

“هدف شبیه‌سازی احساسات نیست. این است که تجربه انسانی را با آگاهی و زمینه پشتیبانی کند”، کریم توضیح داد و تأکید کرد که هدف ایجاد احساسات مصنوعی نیست، بلکه تقویت هوش عاطفی انسانی از طریق بینش‌های مبتنی بر هوش مصنوعی است.

همانطور که عصر هوش مصنوعی به جلو می‌رود، سوال اینکه چگونه هوش مصنوعی با کاربران تعامل داشته و از آنها یاد می‌گیرد، اهمیت زیادی دارد. کریم معتقد است که هوش مصنوعی مبتنی بر حافظه، که قادر به رشد با کاربر و ایجاد اعتماد از طریق تداوم است، نه تنها یک ویژگی مطلوب بلکه برای روابط معنادار انسان و ماشین ضروری است. با این حال، او به شدت معتقد است که این باید بر یک پایه قوی از کنترل کاربر، حریم خصوصی و رضایت صریح استوار باشد.

با کشیدن تضاد واضح با روش‌های پیگیری معمولاً ماحفظ در Web2، کریم آینده‌ای را می‌بیند که در آن عامل‌های هوش مصنوعی به طور اخلاقی و امنی تعاملات کاربر را یاد بگیرند و به یاد بیاورند. “کاملاً – و ما معتقدیم آنها باید باشند. هوش مصنوعی مبتنی بر حافظه فقط یک ویژگی نیست؛ بلکه برای ساختن روابط معنادار و شخصی بین انسان و ماشین‌ها ضروری است”، کریم اظهار داشت.

برای دستیابی به این دیدگاه، Vyvo Smart Chain سیستم خود را بر مبنای NFT های داده‌ای طراحی کرده است، رویکردی که به گفته کریم، کاربر را به طور کامل کنترل داده‌های خود می‌کند. “به همین دلیل ما سیستم خود را بر اساس NFT های داده‌ای بر روی Vyvo Smart Chain ساختیم. هر کاربر محفظه حافظه رمزنگاری شده خود را در اختیار دارد. هوش مصنوعی تنها با رضایت صریح و قابل لغو می‌تواند به آن دسترسی پیدا کند. هیچ کاردکشی. هیچ دَرَک پشتی. هیچ گونه لاگ مرکزی.”

در مورد اینکه هوش مصنوعی در پنج سال چگونه خواهد بود، کریم پیش‌بینی می‌کند که از ابزارهای واکنشی به “حضوری‌های مشاوری” منتقل شود. با این حال، او استفاده اخلاقی یا کمبود آن را به عنوان چالشی می‌بیند که با افزایش استفاده از هوش مصنوعی رشد خواهد کرد.

“اما بزرگترین چالش فنی نیست—این اخلاقی است. قانون‌گذاران باید با سوالاتی در مورد مالکیت داده‌ها، حافظه و رضایت مواجه شوند. چه کسی مالک داده‌های آموزشی است؟ کاربر چه حقوقی بر حافظه یک هوش مصنوعی که به شکل‌گیری آن کمک کرده دارد؟”، کریم اطلاع داد.

با این حال، او اظهار می‌دارد که با وجود اینکه این سوالات به چارچوب‌های جدید نیاز دارند، Web3 و نه قانون‌گذاران سنتی “پاسخ‌های قدرتمند” ارائه می‌دهد.

“لایه‌های رضایت غیرمتمرکز، حافظه متعلق به کاربر و جریان داده‌های شفاف می‌توانند به عنوان حفاظ‌های نظارتی از نظر طراحی و نه فقط سیاست عمل کنند. چالش واقعی است. اما فرصت هم همینطور است”، کریم توضیح داد.

برچسب‌ها در این داستان