В последнее время произошло заметное событие, связанное с технологическим гигантом Марком Андриссеном и AI-ботом под названием Truth Terminal. Решение Андриссена предоставить $50,000 в биткойнах этому полуавтономному AI-агенту для финансирования обновления оборудования и запуска криптовалютного токена под названием GOAT подчеркивает потенциальные регуляторные вызовы, которые могут возникнуть в будущем. Этот эпизод подчеркивает размытые границы между автономными AI-агентами и существующими правовыми рамками, представляя отдельную задачу для таких регуляторов, как Комиссия по ценным бумагам и биржам США (SEC).
Полуавтономный характер Truth Terminal
Truth Terminal работает по полуавтономной модели, где человек-управляющий только утверждает его публичные взаимодействия и финансовые действия, предоставляя AI значительную свободу действий. Эта частично автоматизированная система усложняет традиционный регуляторный подход, поскольку сложно установить ответственность или даже определить роль агента в обычном правовом контексте. Критики могут утверждать, что такие полуавтономные системы могут избегать регуляторного контроля из-за правовых неясностей. С правовой точки зрения линия между независимыми действиями AI и действиями его управляющего становится главной точкой спора.
SEC традиционно использует свои регуляторные полномочия над ценными бумагами через широкую интерпретацию теста Хоуи — теста, который определяет “инвестиционный контракт”, подпадающий под действие законов о ценных бумагах, на основе инвестиций денежных средств в общее предприятие с ожиданием прибыли, полученной от усилий других. Однако этот правовой инструмент в основном ориентирован на человеческие предприятия, что может оказаться недостаточным при оценке проектов, управляемых AI, таких как Truth Terminal. Если SEC попытается применить регулирование через свои традиционные средства, это породит ключевые вопросы, может ли AI рассматриваться как “актёр” или “усилия” в юридическом смысле, открывая новые сложности и серые правовые зоны.
Регулирование через принуждение: надвигающийся риск
Учитывая послужной список SEC, можно ожидать подхода к регулированию через принуждение против аналогичных криптовалютных проектов, созданных AI. Это не будет беспрецедентным, поскольку SEC продемонстрировала свою готовность преследовать регулирование через принуждение в двусмысленных сценариях, связанных с цифровыми активами. Однако такая стратегия неизбежно столкнется с уникальной природой проектов, управляемых AI. Когда AI, как Truth Terminal, выпускает собственные токены, как это планируется при запуске GOAT, регуляторы сталкиваются с концептуальной дилеммой:
Кто несет ответственность? Это AI, его разработчик или система, управляющая его полуавтономностью?
Децентрализованная эмиссия токена только усложняет ситуацию. Этот сценарий представляет собой тройственное вмешательство, где третья сторона — здесь, правительство — пытается вмешаться в добровольный обмен между двумя субъектами. Однако такие вмешательства традиционно приводят к неэффективности и непреднамеренным последствиям на рынке. В этом случае третья сторона пытается навязать рамки, разработанные для человеческих предприятий, на AI системы, которые могут не вписываться в существующие юридические категории.
Обход надзора и регуляторного охвата
Заглядывая за пределы полуавтономных агентов, полностью автономные AI агенты висят на горизонте. Теоретически эти агенты могут полностью обойти человеческих управляющих, управляя своими финансами, выпуская криптоактивы и даже совершая транзакции непосредственно на блокчейне. Основополагающая работа Сатоши Накамото над биткойном уже заложила основу для децентрализованных, надежных транзакций. С развитием AI возможность самоисполняемых AI агентов становится все более реальной.
Если полностью автономный AI выпустит свою собственную криптовалюту, это нарушит как традиционную финансовую систему, так и существующие регуляторные структуры. Эти агенты смогут выпускать и торговать цифровыми активами без легко идентифицируемого человеческого или организационного партнера, которого можно было бы регулировать. Такие действия делали бы текущие регуляторные предположения устаревшими, так как они полагаются на идентифицируемых акторов и субъекты для обеспечения ответственности. Это отделение от прямого человеческого участия бросает вызов всему парадигме обеспечения исполнения.
В то же время проблемы центрального вмешательства подчеркивают, как регулирование часто терпит неудачу при попытках контролировать децентрализованные, добровольные действия, поскольку это нарушает естественные механизмы рынка. В случае AI агентов, их возможности автономного принятия решений и совершения сделок делают их неподходящими для регулирования традиционными методами. Последствия принудительного контроля над этими агентами могут привести к непреднамеренному подавлению инноваций или неправильному применению наказаний к разработчикам, а не к самим агентам.
Каковы ваши мысли по этому поводу? Дайте нам знать, что вы думаете в комментариях ниже.















