ارائه توسط
Interview

متخصص هوش مصنوعی: پروتکل‌های حقیقت می‌توانند به SSL عصر اطلاعات تبدیل شوند

تولید محتوای مبتنی بر هوش مصنوعی، از جمله دیپ‌فیک‌ها و صدای جعلی، مرز بین واقعیت و ساختگی را مبهم کرده و منجر به سردرگمی و دست‌کاری گسترده شده است. کارشناسانی مانند یانیک مایسون بر جاسازی تأیید در مرحله ایجاد محتوا و اجرای سیستم‌های تأیید غیرمتمرکز به منظور اطمینان از اصالت تأکید می‌کنند.

نویسنده
اشتراک
متخصص هوش مصنوعی: پروتکل‌های حقیقت می‌توانند به SSL عصر اطلاعات تبدیل شوند

اطلاعات غلط و خطرات آن

سال ۲۰۲۴ به عنوان هشداری جدی در مورد خطراتی که هوش مصنوعی (AI) ممکن است در صورت عدم اجرای هیچ گونه حفاظتی ایجاد کند، عمل کرد. در سراسر جهان، از تلاش دمکراتیک وسیع هند تا فضای سیاسی پرتنش تایوان، کمپین‌های اطلاعات غلط تولید شده توسط هوش مصنوعی نشانه‌ای از خود گذاشتند.

در تایوان، مجریان اخبار دیپ‌فیک مرز بین واقعیت و ساختگی را مبهم کردند، در حالی که در ایالات متحده، صدای جعلی از بایدن رئیس‌جمهور که ظاهراً از دموکرات‌های نیوهمپشایر می‌خواست که رأی ندهند، سهولت استفاده هوش مصنوعی برای دست‌کاری سیاسی را نشان داد. حجم زیاد و پیچیدگی این رسانه مصنوعی بسیاری را در دریایی از عدم قطعیت در جستجوی تشخیص حقایق از ساخته‌ها رها کرده است.

با این حال، برخی کارشناسان مانند یانیک مایسون، بنیان‌گذار و مدیرعامل شرکت Swarm Network، استدلال می‌کنند که مسئله عمیق‌تر از دست‌کاری انتخاباتی است. او به پدیده روان‌پریشی ناشی از هوش مصنوعی اشاره می‌کند، پدیده‌ای نگران‌کننده که در آن افراد توهمات بزرگ‌منشانه ایجاد می‌کنند، که برخی مطالعات آن را به تعاملات گسترده با چت‌بات‌های هوش مصنوعی مرتبط می‌کنند. هزینه این روان‌پریشی ناشی از هوش مصنوعی عظیم بوده است؛ برخی شغل خود را از دست داده‌اند، در حالی که برخی دیگر تحت درمان روان‌پزشکی قرار گرفته‌اند.

“همان‌طور که دیپ‌فیک‌ها از میانبرهای پردازش بصری ما سو استفاده می‌کنند، روان‌پریشی هوش مصنوعی از آسیب‌پذیری‌های روان‌شناختی ما سو استفاده می‌کند، و چت‌بات‌ها به‌عنوان اتاق‌های پژواک کامل عمل می‌کنند که اندیشه‌های توهم‌آمیز را تأیید و تقویت می‌کنند,” مایسون گفت.

راه‌حل‌های متمرکز در مقابل غیرمتمرکز

مایسون باور دارد که اقدامات واکنشی فعلی، مانند تلاش‌های بررسی واقعی به صورت وصله‌پینه‌ای، به‌سادگی برای مقابله با این مشکل در حال افزایش کافی نیستند. “چیزی که صنعت به آن بیدار شده است این است که بررسی واقعیت به‌صورت وصله‌ای نمی‌تواند با سرعت رسانه مصنوعی یا دست‌کاری روان‌شناختی سیستم‌های هوش مصنوعی همگام بماند,” او اظهار می‌کند.

راه‌حل او که در شبکه Swarm تجسم یافته، یک راهکار پیش‌گیرانه است: جاسازی تأیید در مقیاس بزرگ. این شامل ایجاد اثبات اصالت در نقطه تولید محتوا، اطمینان از اینکه منشاء اطلاعات دیجیتال قابل ردیابی و تأیید است. علاوه بر این، مایسون برای سیستم‌های تأیید غیرمتمرکز جایی که اطلاعات در حالی که در گستره دیجیتال منتشر می‌شود کراس‌چک و تأیید می‌شود، طرفداری می‌کند.

این دیدگاه از یک “زیرساخت حقیقت” قوی با نگرانی‌های فزاینده در صنعت هوش مصنوعی هم‌صدایی دارد. با ادامه پیشرفت سریع فناوری، پیامدهای اخلاقی و اجتماعی استفاده نادرست از آن به‌طور فزاینده‌ای آشکار می‌شود. فرسایش اعتماد به اطلاعات دیجیتال که توسط کاذبیت‌های پیچیده تولید شده توسط هوش مصنوعی تقویت می‌شود، تهدیدی جدی برای فرآیندهای دموکراتیک، همبستگی اجتماعی و حتی سلامت روانی فردی ایجاد می‌کند.

برای مقابله با این تهدید، برخی برای یک پاسخ نظارتی طرفداری کرده‌اند و به موارد قبلی اشاره می‌کنند که این امر به عنوان ابزاری حیاتی برای حفاظت از کاربران در برابر خطرات بالقوه مرتبط با فناوری‌های نوظهور به کار رفته است. با این حال، منتقدان هشدار می‌دهند که این می‌تواند اثر ناخواسته‌ای در کاهش نوآوری داشته باشد، ادعایی که مایسون به نظر می‌رسد با آن موافق است.

“قانون‌گذاری می‌تواند کمک کند، اما تنها در صورتی که از دام متمرکز کردن حقیقت اجتناب کند. ما دیده‌ایم که دولت‌ها ‘قوانین اطلاعات غلط’ را به ابزارهایی برای ساکت کردن بحث تبدیل می‌کنند,” مدیرعامل شرکت Swarm Network بیان داشت.

برای پشتیبانی از این ادعا، مایسون به چگونگی استفاده گزارش‌شده بروکرات‌های اتحادیه اروپا از قانون خدمات دیجیتال (DSA) اتحادیه اروپا اشاره کرد، که حذف محتوای به‌طور گسترده تعریف‌شده “مضر” را الزامی می‌کند، به عنوان “ابزاری برای محدود کردن گفتمان باز در سراسر جهان.” مایسون ادعا می‌کند که قانون هوش مصنوعی اتحادیه اروپا نیز مشکلات مشابهی ایجاد می‌کند.

به‌جای تصویب قوانینی مانند DSA یا قانون هوش مصنوعی، مایسون به‌جای آن برای الزام به شفافیت، برچسب‌گذاری شفاف محتوای مصنوعی و استانداردهای اصالت باز مانند C2PA طرفداری می‌کند. “قوانین باید اثبات را الزام کنند، نه نظر,” او استدلال کرد.

آینده تأیید

به گفته مدیرعامل، پلتفرم‌های عمده رسانه‌ای اجتماعی مانند Meta و TikTok این مسئله را درک کرده‌اند و از این رو به‌سمت رویکردهای غیرمتمرکزتر برای بررسی واقعیت حرکت کرده‌اند.

“این تغییر نشان‌دهنده شناخت بنیادی است که بررسی واقعیت متمرکز گلوگاه‌هایی ایجاد می‌کند و نقاط تک‌نقطه‌ای از شکست می‌سازد. آینده تأیید محتوا درباره دادن اختیار به دولت‌ها یا شرکت‌ها برای تصمیم‌گیری در مورد حقیقت نیست,” مدیرعامل بیان کرد.

مایسون باور دارد که این تغییر، راه‌حل‌هایی مانند آنچه Swarm Network ارائه می‌دهد را ضروری می‌سازد. به‌جای تکیه بر چندین بررسی‌کننده واقعیت متمرکز، Swarm از “عوامل هوش مصنوعی که در کنار بازبین‌های انسانی کار می‌کنند تا یک رکورد قابل حسابرسی از ادعاهای تأیید شده را ایجاد کنند” بهره می‌برد.

به‌واقع، عوامل هوش مصنوعی به‌سرعت از مفاهیم نظری به کاربردهای عملی حرکت می‌کنند و به‌طور بنیادی چگونگی عملکرد بخش‌های مختلف را تغییر می‌دهند. مزیت اصلی این عوامل توانایی آن‌ها در خودکارسازی و بهینه‌سازی است. آن‌ها می‌توانند مقادیر زیادی از داده‌ها را در مدت زمانی کوتاه پردازش کنند، الگوهایی که ممکن است انسان‌ها نادیده بگیرند را شناسایی کنند و ۲۴/۷ بدون خستگی کار کنند.

با این حال، پذیرش گسترده عوامل هوش مصنوعی نیز چالش‌های پیچیده‌ای را معرفی می‌کند که باید به‌دقت مورد توجه قرار گیرند. برای غلبه بر برخی از این چالش‌ها، مایسون گفت که رویکرد شرکت او “تبدیل عوامل به همکاران شفاف، نه پیشگویان بدون نظارت” است. او افزود:

“در Swarm، عوامل اطلاعات را به ادعاهای کوچک و قابل آزمایش تجزیه می‌کنند، آن‌ها بر یکدیگر نظارت می‌کنند و در مواردی که نیاز به دقت وجود دارد، انسان‌ها وارد عمل می‌شوند. هر مرحله ثبت و زنجیر می‌شود، بنابراین استدلال آن‌ها قابل بازبینی است. به‌طور خلاصه: هیچ جعبه سیاهی وجود ندارد، فقط مسیرهای قابل تأیید.”

در همین حال، مایسون باور دارد که در پنج سال آینده، بررسی واقعیت از یک فرایند دستی به یک ویژگی داخلی زندگی دیجیتال تکامل خواهد یافت، و عوامل هوش مصنوعی بر اساس شفافیت آن‌ها، نه فقط سرعت، ارزیابی خواهند شد. دید نهایی این است که حقیقت یک لایه بنیادی از اینترنت شود.

“به همان شیوه‌ای که SSL به پیش‌فرض برای ترافیک وب تبدیل شد، یک پروتکل حقیقت برای اطلاعات به پیش‌فرض تبدیل خواهد شد. و این‌گونه است که ما از غرق شدن دنیا در نویز توسط هوش مصنوعی جلوگیری می‌کنیم,” مایسون concluded.

برچسب‌ها در این داستان