Контент, сгенерированный ИИ, включая дипфейки и фейковое аудио, размывает границы между реальностью и фальсификацией, что приводит к массовой путанице и манипуляциям. Эксперты, такие как Янник Майсон, выступают за внедрение верификации на этапе создания контента и реализацию децентрализованных систем верификации для обеспечения подлинности.
Эксперт по ИИ: Протоколы правды могут стать SSL информационной эпохи

Дезинформация и её угрозы
2024 год стал ярким предупреждением об опасностях, которые может представлять искусственный интеллект (ИИ), если не будут предприняты меры предосторожности. По всему миру, от грандиозного демократического мероприятия в Индии до напряжённой политической обстановки в Тайване, кампании по дезинформации, созданные ИИ, оставили свой след.
В Тайване дипфейковые новостные ведущие размыли границу между реальностью и фальсификацией, в то время как в США поддельное аудио Президента Байдена, якобы отговаривающее демократов Нью-Гэмпшира от голосования, подчеркивает, насколько легко ИИ может быть использован в политических манипуляциях. Огромное количество и сложность этого синтетического медиа заставили многих чувствовать себя потерянными в море неопределённости, пытаясь различить факты и вымысел.
Тем не менее, некоторые эксперты, такие как Янник Майсон, основатель и генеральный директор Swarm Network, утверждают, что проблема уходит глубже, чем манипуляции на выборах. Он ссылается на психоз, вызванный ИИ, тревожное явление, при котором люди развивают грандиозные иллюзии, что, как показывают некоторые исследования, связано с длительными взаимодействиями с чат-ботами ИИ. Стоимость этого психоза, вызванного ИИ, была огромной; некоторые потеряли работу, другие оказались на психиатрическом лечении.
«Так же, как дипфейки эксплуатируют наши визуальные процессы, психоз, вызванный ИИ, эксплуатирует наши психологические уязвимости, причём чат-боты служат идеальными эхокамерами, которые подтверждают и усиливают иллюзорное мышление», — сказал Майсон.
Централизованные против децентрализованных решений
Майсон считает, что текущие реактивные меры, такие как пунктирные инициативы фактчекинга, просто недостаточны для борьбы с этой нарастающей проблемой. «Индустрия осознаёт, что метод «заплатки» не справляется со скоростью воспроизведения синтетических медиа или психологической манипуляцией систем ИИ», — утверждает он.
Его решение, воплощенное в Swarm Network, является проактивным: внедрение верификации в масштабах. Это предполагает установление происхождения на самом этапе создания контента, обеспечивая возможность отслеживания и аутентификации источника цифровой информации. Более того, Майсон выступает за децентрализованные системы верификации, где информация проверяется и подтверждается по мере её распространения в цифровой сфере.
Эта концепция надежной «инфраструктуры правды» резонирует с растущей озабоченностью в индустрии ИИ. По мере того как технологии продолжают развиваться стремительными темпами, этические и социальные последствия её злоупотребления становятся всё более очевидными. Эрозия доверия к цифровой информации, подпитываемая сложнейшими фальшивками, созданными ИИ, представляет значительную угрозу демократическим процессам, социальному единству и даже индивидуальному психическому благополучию.
Чтобы с этим бороться, некоторые высказываются за регулирующий ответ, ссылаясь на прошлые случаи, когда это было важным инструментом защиты пользователей от потенциальных рисков, связанных с новыми технологиями. Однако критики предупреждают, что это может иметь непреднамеренный эффект подавления инноваций, утверждение, с которым, кажется, согласен Майсон.
«Регулирование может помочь, но только если оно избегает ловушки централизации правды. Мы видели, как правительства используют «законы о дезинформации» в качестве оружия для подавления дебатов», — заявил генеральный директор Swarm Network.
Чтобы подтвердить это утверждение, Майсон указал на то, как, по сообщениям, бюрократы ЕС используют Закон о цифровых услугах Европейского Союза (DSA), который требует удаления широко определённого «вредоносного» контента, в качестве «инструмента для ограничения открытых дискуссий по всему миру». Майсон утверждает, что и Закон об ИИ ЕС создает аналогичные проблемы.
Вместо введения таких механизмов, как DSA или Закон об ИИ, Майсон выступает за обязательность прозрачности, чёткую маркировку синтетических медиа и открытые стандарты происхождения, такие как C2PA. «Правила должны поддерживать доказательства, а не мнения», — возразил он.
Будущее верификации
По словам генерального директора, крупные социальные платформы, такие как Meta и TikTok, понимают это и с тех пор перешли к более децентрализованным подходам к фактчекингу.
«Этот сдвиг представляет собой фундаментальное признание того, что централизованные проверки фактов создают узкие места и точки единичного отказа. Будущее верификации контента заключается не в том, чтобы отдавать правительствам или корпорациям право решать, что истинно», — заявил генеральный директор.
Майсон считает, что этот сдвиг делает решения, предлагаемые Swarm Network, важными. Вместо того чтобы полагаться на небольшое количество централизованных фактчекеров, Swarm использует «ИИ-агентов, работающих вместе с человеческими ревьюерами, чтобы создать проверяемую цепочку записей подтверждённых утверждений».
Действительно, ИИ-агенты быстро переходят от теоретических концепций к практическим приложениям, фундаментально меняя то, как функционируют различные сектора. Основное преимущество этих агентов заключается в их способности автоматизировать и оптимизировать. Они могут обрабатывать огромное количество данных за короткое время, выявлять шаблоны, которые могут упустить люди, и работать 24/7 без усталости.
Тем не менее, широкое распространение ИИ-агентов также вводит сложные вызовы, которые необходимо тщательно решать. Чтобы преодолеть некоторые из этих вызовов, Майсон сказал, что подход его компании заключается в том, чтобы превращать агентов в прозрачных соработников, а не в неконтролируемых оракулов. Он добавил:
«В Swarm агенты декомпозируют информацию на небольшие, проверяемые утверждения, они перекрестно проверяют друг друга, и, когда требуется нюанс, вмешиваются люди. Каждый шаг фиксируется и закрепляется в цепи, так что их размышления можно воспроизвести. Коротко: никаких чёрных коробок, только проверяемые тропы».
Тем временем Майсон считает, что в течение следующих пяти лет фактчекинг эволюционирует от ручного процесса к встроенной функции цифровой жизни, и ИИ-агенты будут оцениваться по их прозрачности, а не только по скорости. Конечная цель — сделать правду основным слоем интернета.
«Так же, как SSL стал стандартом для веб-трафика, протокол правды станет стандартом для информации. И именно так мы удержим ИИ от утопления мира в шуме», — заключил Майсон.
Теги в этой статье
Игровые выборы Bitcoin
425% до 5 BTC + 100 Бесплатных Вращений















