Распространение и совершенствование технологии deepfake вызывает растущую озабоченность у регуляторов и угрожает системам проверки личности (KYC) на централизованных криптобиржах. Власти Малайзии и Индонезии на этой неделе ограничили доступ к ИИ-чатботу Grok от компании xAI Илона Маска. Это решение последовало после заявлений о том, что платформа использовалась для создания порнографических и неконсенсуальных изображений.
Калифорнийский генеральный прокурор Роб Бонта также объявил о начале расследования по многочисленным сообщениям о сексуализированных изображениях реальных людей, включая женщин и детей. Бонта призвал xAI принять незамедлительные меры, отметив, что подобные материалы используются для травли в интернете.
Однако проблема выходит за рамки одного сервиса. Современные deepfake-инструменты отличаются динамической отзывчивостью — они могут реагировать на запросы в реальном времени, реалистично воспроизводя естественные мимические движения: моргание, улыбки, повороты головы. Синхронизация речи и выражения лица значительно улучшилась, что ставит под сомнение эффективность стандартных видеоверификаций, где пользователя просят, например, моргнуть или повернуть голову.
Для криптобирж это создаёт прямые риски. Большинство централизованных площадок используют визуальную верификацию личности в рамках процедур KYC — пользователи загружают фото или видео с документами. Если deepfake смогут достоверно имитировать эти этапы, вся система окажется уязвимой.
Финансовые последствия уже перестали быть теоретическими: искусственно сгенерированные изображения и видео появляются в страховых исках и судебных спорах. Глобальные криптоплатформы с автоматизированным онбордингом могут стать привлекательной мишенью для злоумышленников.
Ключевой вопрос сейчас — не в том, стоит ли пользователям беспокоиться (вероятно, стоит), а в том, как биржи адаптируются. Доверие, основанное исключительно на визуальной проверке, в ближайшем будущем может оказаться недостаточным. Платформам необходимо обновлять системы безопасности, прежде чем технологии опередят их защиту. Речь идёт не просто о добавлении дополнительных слоёв верификации (хотя это может помочь), а о переосмыслении самого подхода к подтверждению личности в мире, где визуальные доказательства можно сфабриковать.
Возможные решения включают поведенческий анализ, отпечатки устройств или более сложные биометрические проверки. Однако каждая дополнительная мера увеличивает трение для пользователя, что обычно противоречит стремлению бирж к упрощению взаимодействия. Нельзя игнорировать и регуляторный аспект: по мере ужесточения законодательства против deepfake в разных странах биржам придётся следить за соответствием как технологическим, так и юридическим требованиям.
Параллельно вирусное распространение AI-видео с персонажами сериала «Очень странные дела» вновь актуализировало дискуссию о глубоких фейках. Эти ролики, искусно изменяющие сцены из шоу, подчёркивают риски цифровых манипуляций и этические вызовы, связанные с развитием ИИ. Эксперты по технологической этике указывают на необходимость срочного решения проблем верификации подлинности и выработки чётких регуляторных рамок.