تولید محتوای مبتنی بر هوش مصنوعی، از جمله دیپفیکها و صدای جعلی، مرز بین واقعیت و ساختگی را مبهم کرده و منجر به سردرگمی و دستکاری گسترده شده است. کارشناسانی مانند یانیک مایسون بر جاسازی تأیید در مرحله ایجاد محتوا و اجرای سیستمهای تأیید غیرمتمرکز به منظور اطمینان از اصالت تأکید میکنند.
متخصص هوش مصنوعی: پروتکلهای حقیقت میتوانند به SSL عصر اطلاعات تبدیل شوند

اطلاعات غلط و خطرات آن
سال ۲۰۲۴ به عنوان هشداری جدی در مورد خطراتی که هوش مصنوعی (AI) ممکن است در صورت عدم اجرای هیچ گونه حفاظتی ایجاد کند، عمل کرد. در سراسر جهان، از تلاش دمکراتیک وسیع هند تا فضای سیاسی پرتنش تایوان، کمپینهای اطلاعات غلط تولید شده توسط هوش مصنوعی نشانهای از خود گذاشتند.
در تایوان، مجریان اخبار دیپفیک مرز بین واقعیت و ساختگی را مبهم کردند، در حالی که در ایالات متحده، صدای جعلی از بایدن رئیسجمهور که ظاهراً از دموکراتهای نیوهمپشایر میخواست که رأی ندهند، سهولت استفاده هوش مصنوعی برای دستکاری سیاسی را نشان داد. حجم زیاد و پیچیدگی این رسانه مصنوعی بسیاری را در دریایی از عدم قطعیت در جستجوی تشخیص حقایق از ساختهها رها کرده است.
با این حال، برخی کارشناسان مانند یانیک مایسون، بنیانگذار و مدیرعامل شرکت Swarm Network، استدلال میکنند که مسئله عمیقتر از دستکاری انتخاباتی است. او به پدیده روانپریشی ناشی از هوش مصنوعی اشاره میکند، پدیدهای نگرانکننده که در آن افراد توهمات بزرگمنشانه ایجاد میکنند، که برخی مطالعات آن را به تعاملات گسترده با چتباتهای هوش مصنوعی مرتبط میکنند. هزینه این روانپریشی ناشی از هوش مصنوعی عظیم بوده است؛ برخی شغل خود را از دست دادهاند، در حالی که برخی دیگر تحت درمان روانپزشکی قرار گرفتهاند.
“همانطور که دیپفیکها از میانبرهای پردازش بصری ما سو استفاده میکنند، روانپریشی هوش مصنوعی از آسیبپذیریهای روانشناختی ما سو استفاده میکند، و چتباتها بهعنوان اتاقهای پژواک کامل عمل میکنند که اندیشههای توهمآمیز را تأیید و تقویت میکنند,” مایسون گفت.
راهحلهای متمرکز در مقابل غیرمتمرکز
مایسون باور دارد که اقدامات واکنشی فعلی، مانند تلاشهای بررسی واقعی به صورت وصلهپینهای، بهسادگی برای مقابله با این مشکل در حال افزایش کافی نیستند. “چیزی که صنعت به آن بیدار شده است این است که بررسی واقعیت بهصورت وصلهای نمیتواند با سرعت رسانه مصنوعی یا دستکاری روانشناختی سیستمهای هوش مصنوعی همگام بماند,” او اظهار میکند.
راهحل او که در شبکه Swarm تجسم یافته، یک راهکار پیشگیرانه است: جاسازی تأیید در مقیاس بزرگ. این شامل ایجاد اثبات اصالت در نقطه تولید محتوا، اطمینان از اینکه منشاء اطلاعات دیجیتال قابل ردیابی و تأیید است. علاوه بر این، مایسون برای سیستمهای تأیید غیرمتمرکز جایی که اطلاعات در حالی که در گستره دیجیتال منتشر میشود کراسچک و تأیید میشود، طرفداری میکند.
این دیدگاه از یک “زیرساخت حقیقت” قوی با نگرانیهای فزاینده در صنعت هوش مصنوعی همصدایی دارد. با ادامه پیشرفت سریع فناوری، پیامدهای اخلاقی و اجتماعی استفاده نادرست از آن بهطور فزایندهای آشکار میشود. فرسایش اعتماد به اطلاعات دیجیتال که توسط کاذبیتهای پیچیده تولید شده توسط هوش مصنوعی تقویت میشود، تهدیدی جدی برای فرآیندهای دموکراتیک، همبستگی اجتماعی و حتی سلامت روانی فردی ایجاد میکند.
برای مقابله با این تهدید، برخی برای یک پاسخ نظارتی طرفداری کردهاند و به موارد قبلی اشاره میکنند که این امر به عنوان ابزاری حیاتی برای حفاظت از کاربران در برابر خطرات بالقوه مرتبط با فناوریهای نوظهور به کار رفته است. با این حال، منتقدان هشدار میدهند که این میتواند اثر ناخواستهای در کاهش نوآوری داشته باشد، ادعایی که مایسون به نظر میرسد با آن موافق است.
“قانونگذاری میتواند کمک کند، اما تنها در صورتی که از دام متمرکز کردن حقیقت اجتناب کند. ما دیدهایم که دولتها ‘قوانین اطلاعات غلط’ را به ابزارهایی برای ساکت کردن بحث تبدیل میکنند,” مدیرعامل شرکت Swarm Network بیان داشت.
برای پشتیبانی از این ادعا، مایسون به چگونگی استفاده گزارششده بروکراتهای اتحادیه اروپا از قانون خدمات دیجیتال (DSA) اتحادیه اروپا اشاره کرد، که حذف محتوای بهطور گسترده تعریفشده “مضر” را الزامی میکند، به عنوان “ابزاری برای محدود کردن گفتمان باز در سراسر جهان.” مایسون ادعا میکند که قانون هوش مصنوعی اتحادیه اروپا نیز مشکلات مشابهی ایجاد میکند.
بهجای تصویب قوانینی مانند DSA یا قانون هوش مصنوعی، مایسون بهجای آن برای الزام به شفافیت، برچسبگذاری شفاف محتوای مصنوعی و استانداردهای اصالت باز مانند C2PA طرفداری میکند. “قوانین باید اثبات را الزام کنند، نه نظر,” او استدلال کرد.
آینده تأیید
به گفته مدیرعامل، پلتفرمهای عمده رسانهای اجتماعی مانند Meta و TikTok این مسئله را درک کردهاند و از این رو بهسمت رویکردهای غیرمتمرکزتر برای بررسی واقعیت حرکت کردهاند.
“این تغییر نشاندهنده شناخت بنیادی است که بررسی واقعیت متمرکز گلوگاههایی ایجاد میکند و نقاط تکنقطهای از شکست میسازد. آینده تأیید محتوا درباره دادن اختیار به دولتها یا شرکتها برای تصمیمگیری در مورد حقیقت نیست,” مدیرعامل بیان کرد.
مایسون باور دارد که این تغییر، راهحلهایی مانند آنچه Swarm Network ارائه میدهد را ضروری میسازد. بهجای تکیه بر چندین بررسیکننده واقعیت متمرکز، Swarm از “عوامل هوش مصنوعی که در کنار بازبینهای انسانی کار میکنند تا یک رکورد قابل حسابرسی از ادعاهای تأیید شده را ایجاد کنند” بهره میبرد.
بهواقع، عوامل هوش مصنوعی بهسرعت از مفاهیم نظری به کاربردهای عملی حرکت میکنند و بهطور بنیادی چگونگی عملکرد بخشهای مختلف را تغییر میدهند. مزیت اصلی این عوامل توانایی آنها در خودکارسازی و بهینهسازی است. آنها میتوانند مقادیر زیادی از دادهها را در مدت زمانی کوتاه پردازش کنند، الگوهایی که ممکن است انسانها نادیده بگیرند را شناسایی کنند و ۲۴/۷ بدون خستگی کار کنند.
با این حال، پذیرش گسترده عوامل هوش مصنوعی نیز چالشهای پیچیدهای را معرفی میکند که باید بهدقت مورد توجه قرار گیرند. برای غلبه بر برخی از این چالشها، مایسون گفت که رویکرد شرکت او “تبدیل عوامل به همکاران شفاف، نه پیشگویان بدون نظارت” است. او افزود:
“در Swarm، عوامل اطلاعات را به ادعاهای کوچک و قابل آزمایش تجزیه میکنند، آنها بر یکدیگر نظارت میکنند و در مواردی که نیاز به دقت وجود دارد، انسانها وارد عمل میشوند. هر مرحله ثبت و زنجیر میشود، بنابراین استدلال آنها قابل بازبینی است. بهطور خلاصه: هیچ جعبه سیاهی وجود ندارد، فقط مسیرهای قابل تأیید.”
در همین حال، مایسون باور دارد که در پنج سال آینده، بررسی واقعیت از یک فرایند دستی به یک ویژگی داخلی زندگی دیجیتال تکامل خواهد یافت، و عوامل هوش مصنوعی بر اساس شفافیت آنها، نه فقط سرعت، ارزیابی خواهند شد. دید نهایی این است که حقیقت یک لایه بنیادی از اینترنت شود.
“به همان شیوهای که SSL به پیشفرض برای ترافیک وب تبدیل شد، یک پروتکل حقیقت برای اطلاعات به پیشفرض تبدیل خواهد شد. و اینگونه است که ما از غرق شدن دنیا در نویز توسط هوش مصنوعی جلوگیری میکنیم,” مایسون concluded.














