ارائه توسط
Featured

بدون افشاگری، بدون پرداخت: ایکس از درآمدزایی به‌عنوان سلاحی علیه حقه‌های جنگیِ ساختگی استفاده می‌کند

X یک سیاست سخت‌گیرانه جدید را برای مقابله با گسترش اطلاعات نادرست جنگیِ تولیدشده توسط هوش مصنوعی معرفی کرده است و سازندگان را از جایی که بیشترین درد را دارد هدف می‌گیرد: کیف پولشان.

نویسنده
اشتراک
بدون افشاگری، بدون پرداخت: ایکس از درآمدزایی به‌عنوان سلاحی علیه حقه‌های جنگیِ ساختگی استفاده می‌کند

نقش یادداشت‌های جامعه

پلتفرم شبکه اجتماعی X از بازنگری بزرگ در سیاست‌های اشتراک درآمدِ سازندگان خود خبر داده است؛ اقدامی که ویدئوهای تولیدشده توسط هوش مصنوعی از درگیری‌های مسلحانه را هدف می‌گیرد. این اقدام در میانه تشدید جنگ خاورمیانه و افزایش نگرانی‌ها درباره اطلاعات نادرست در جریان این درگیری صورت می‌گیرد.

نیکیتا بیر، رئیس محصول X، گفت سازندگانی که بدون افشا، تصاویر جنگیِ تولیدشده با هوش مصنوعی منتشر کنند با تعلیق ۹۰ روزه از برنامه اشتراک درآمد مواجه خواهند شد. تکرار تخلف به محرومیت دائمی منجر می‌شود. اجرای این سیاست بر «یادداشت‌های جامعه» (Community Notes)، سامانه راستی‌آزمایی جمع‌سپاری‌شده این پلتفرم، و همچنین فراداده‌ها و سیگنال‌های نهفته در ابزارهای هوش مصنوعی مولد متکی خواهد بود.

بیر تأکید کرد که در زمان جنگ، حیاتی است مردم به اطلاعات واقعیِ میدانی دسترسی داشته باشند و هشدار داد که هوش مصنوعیِ مدرن ساخت محتوایی را که می‌تواند مردم را گمراه کند بسیار ساده کرده است.

این اعلام در حالی منتشر می‌شود که اطلاعات نادرست درباره جنگ ایالات متحده و اسرائیل با ایران با سرعت در فضای آنلاین پخش می‌شود؛ جنگی که تهدید می‌کند به یک درگیری گسترده‌ترِ منطقه‌ای تبدیل شود. پلتفرم‌های شبکه‌های اجتماعی تحت فشار فزاینده‌ای قرار دارند تا از تحریف برداشت عمومی در بحران‌ها توسط رسانه‌های مصنوعی جلوگیری کنند.

از جمله محتواهایی که وایرال شد، یک ویدئوی هوش مصنوعیِ پرهزینه و با تولید حرفه‌ای بود که نابودی ناو هواپیمابر USS Abraham Lincoln را شبیه‌سازی می‌کرد. این ادعاها و ویدئو از سوی فرماندهی مرکزی ایالات متحده رد شد. این ویدئوی با کیفیت سینمایی نشان می‌دهد موشک‌های هایپرسونیک بر پدافند ایجیسِ آمریکا غلبه می‌کنند. کلیپ دیگری ادعا می‌کرد که مقر منطقه‌ای سیا با خاک یکسان شده است؛ اما گزارش شده راستی‌آزمایی‌کنندگان رد آن را به آتش‌سوزیِ یک ساختمان مسکونی در سال ۲۰۱۵ در شارجهِ امارات متحده عربی رسانده‌اند که با هوش مصنوعی به‌صورت دیجیتال تقویت شده بود تا شبیه حمله نظامی به نظر برسد.

پلتفرم‌های دیگری مانند یوتیوب و تیک‌تاک الزامات افشا برای محتوای تولیدشده با هوش مصنوعی را معرفی کرده‌اند، اما رویکرد X سخت‌گیرانه‌تر است زیرا پایبندی را مستقیماً به درآمدزایی گره می‌زند. X به‌طور گسترده بر یادداشت‌های جامعه به‌عنوان یک ابزار راستی‌آزمایی غیرمتمرکز تکیه کرده است و این سیاست جدید آن سامانه را در اجرا ادغام می‌کند و عملاً شناسایی محتوای جنگیِ هوش مصنوعیِ افشانشده را جمع‌سپاری می‌کند.

پرسش‌های متداول ❓

  • چرا X این را اجرا می‌کند؟ X می‌گوید ویدئوهای جنگیِ هوش مصنوعیِ بدون افشا در جریان درگیری ایران خطر گمراه‌کردن کاربران را دارند.
  • این چه تأثیری بر سازندگان دارد؟ سازندگان باید تصاویر جنگیِ هوش مصنوعی را افشا کنند یا دسترسی به درآمد را از دست بدهند.
  • چرا این سیاست در اینجا فوری است؟ X به کلیپ‌های جعلیِ وایرال اشاره می‌کند که تنش‌های منطقه‌ای را شعله‌ور می‌کنند.
  • این برای مخاطبان چه معنایی دارد؟ این قانون با هدف اطمینان از این است که کاربران گزارش‌های واقعیِ درگیری را ببینند، نه جعلیاتِ هوش مصنوعی.
برچسب‌ها در این داستان