Социальная платформа X (бывший Twitter) объявила о введении новых правил модерации, которые напрямую связывают монетизацию контента с обязательным раскрытием использования искусственного интеллекта. Согласно новому регламенту, опубликованному 4 марта 2026 года, создатели, которые размещают сгенерированные ИИ видео, изображающие вооружённые конфликты, без чёткого указания на искусственное происхождение контента, будут отстранены от программы распределения доходов на 90 дней.
Глава продукта X Никита Бьер заявил, что правило направлено на сохранение «аутентичности контента в ленте» в периоды военных событий, когда вводящая в заблуждение информация может распространяться особенно быстро. «Во время войн критически важно, чтобы люди имели доступ к достоверной информации с места событий, — написал Бьер. — Современные технологии ИИ позволяют с лёгкостью создавать контент, способный ввести людей в заблуждение».
Новая мера добавляет финансовые штрафы к уже существующим инструментам модерации платформы. В отличие от традиционных методов, таких как маркировка или удаление материалов, это правило напрямую воздействует на экономику создателей, ограничивая доступ к монетизации. Повторные нарушения могут привести к постоянному исключению аккаунта из программы распределения доходов.
Для выявления нарушений X будет использовать комбинацию сигналов: проверку метаданных, систему Community Notes (примечания сообщества) и другие индикаторы, поступающие от инструментов генеративного ИИ. Политика применяется специфически к видео, изображающим вооружённые конфликты, и не представляет собой всеобъемлющий запрет на AI-контент на платформе.
Объявление было сделано на фоне эскалации геополитической напряжённости на Ближнем Востоке, которая доминирует в онлайн-обсуждениях. Ранее, 28 февраля, США и Израиль нанесли совместные авиаудары по Ирану. На этом фоне биткоин (BTC) кратковременно снизился примерно до $63 000, но впоследствии восстановился и на момент публикации новости торговался вблизи $70 000.
Эксперты, включая доктора Елену Мартинес из Стэнфордской интернет-обсерватории, отмечают, что политика, нацеленная на конкретные категории синтетических медиа, — это необходимый первый шаг, но платформам необходимо развивать более комплексные рамки. Различие между «вооружённым конфликтом» и другими чувствительными темами часто размыто, что создаёт возможности для злоупотреблений.
Для соблюдения правил создателям рекомендуется явно указывать на искусственное происхождение как в самом видео, так и в подписи, например: «Сгенерированное ИИ моделирование события вооружённого конфликта; не является реальным; синтетические медиа». Этот шаг также происходит в контексте более широкого регуляторного тренда на борьбу с дезинформацией, включая требования прозрачности согласно Цифровому сервисному акту ЕС (DSA).