Разработчики экосистемы Ethereum, включая сооснователя сети Виталика Бутерина и руководителя направления искусственного интеллекта в Ethereum Foundation Давиде Краписа, предложили новую модель обеспечения приватности при использовании AI-чатботов. В опубликованном ими техническом документе описана система, позволяющая пользователям совершать приватные API-запросы к крупным языковым моделям, не раскрывая своей личности, но при этом гарантируя оплату услуг провайдерам и предотвращая злоупотребления.
Ключевой проблемой текущих моделей, по мнению авторов, является утечка персональных данных. Сегодня для доступа к чатботам пользователи либо входят с помощью электронной почты, либо оплачивают запросы кредитной картой. Оба метода привязывают каждый запрос к реальной личности, создавая риски профилирования, отслеживания и даже юридических последствий, если логи будут использованы в суде. Альтернатива в виде блокчейн-платежей за каждый запрос также неприемлема: она медленная, дорогая и оставляет публичный след, по которому можно отследить всю историю взаимодействий.
Предлагаемое решение основано на одноразовом депозите в смарт-контракт. Пользователь пополняет счёт один раз, после чего может совершать тысячи приватных API-вызовов. Провайдер получает гарантию оплаты, а личность пользователя остаётся скрытой. Для обеспечения анонимности и предотвращения злоупотреблений система использует криптографию с нулевым разглашением (zero-knowledge proofs).
Техническая реализация включает несколько инструментов. Механизм Rate-Limit Nullifiers (RLN) позволяет анонимно совершать запросы и выявлять попытки обмана протокола. Каждому запросу присваивается индекс билета (ticket index), а пользователь должен сгенерировать специальное доказательство ZK-STARK, подтверждающее, что он расходует средства со своего депозита и получает причитающиеся возвраты средств (рефанды), так как стоимость AI-запросов может варьироваться.
Для каждого билета генерируется уникальный нуллификатор, который немедленно выявляет попытки повторного использования одного индекса для разных запросов (двойной траты). Однако, как отмечают Бутерин и Крапис, злоупотребления не ограничиваются двойной тратой. Пользователи могут пытаться отправлять вредоносные промпты, взламывать защиту (jailbreaks) или запрашивать нелегальный контент.
Для борьбы с этим в протокол добавлен уровень двойного стейкинга (dual staking). Одна часть депозита подчиняется строгим математическим правилам протокола, а другая — политике провайдера. Это позволяет наказывать злоумышленников за нарушение правил, не раскрывая при этом личность добросовестных анонимных пользователей. По замыслу авторов, эта модель позволит сохранить приватность пользователей и обеспечить устойчивое развитие технологии AI.