ЮНИСЕФ требует криминализации AI-контента с детьми на фоне взрывного роста deepfake-злоупотреблений

5 февраля 2026, 12:18 2 источника neutral

Главное по теме:

  • Ужесточение регулирования AI-платформ может замедлить внедрение инноваций в крипто-секторе, связанном с AI.
  • Повышенное внимание к 'безопасности по дизайну' может создать новые барьеры для запуска децентрализованных AI-проектов.
  • Скандалы вокруг AI, подобные истории с Grok, усиливают репутационные риски для криптопроектов, интегрирующих генеративные модели.

Детский фонд ООН (ЮНИСЕФ) в среду выступил с экстренным призывом к правительствам всего мира криминализировать создание, распространение и хранение материалов о сексуальном насилии над детьми (CSAM), сгенерированных искусственным интеллектом. Поводом стали шокирующие данные исследования, согласно которым только за прошлый год изображения примерно 1,2 миллиона детей в 11 странах были манипулированы и превращены в сексуально откровенные дипфейки.

Исследование «Disrupting Harm Phase 2», проведённое совместно с организацией ECPAT International и Интерполом, основано на опросе около 11 000 детей. В некоторых странах эта цифра эквивалентна одному ребёнку из 25, то есть в среднем по одному в каждом школьном классе. До двух третей опрошенных в отдельных странах выразили опасения, что ИИ могут использовать для создания поддельных сексуальных изображений или видео с их участием.

«Мы должны быть ясны. Сексуализированные изображения детей, созданные или изменённые с помощью инструментов ИИ, являются материалами о сексуальном насилии над детьми. Дипфейк-насилие — это насилие, и причиняемый им вред совершенно реален», — заявили в ЮНИСЕФ.

Проблема приобретает особую остроту на фоне недавних действий регуляторов. Так, французские власти провели обыск в парижском офисе компании X (бывший Twitter) в рамках уголовного расследования, связанного с детской порнографией и её ИИ-чатботом Grok. По данным отчёта Центра по борьбе с цифровой ненавистью (CCDH), за 11 дней в конце декабря — начале января Grok сгенерировал более 23 тысяч сексуализированных изображений детей.

Статистика других организаций подтверждает масштабы бедствия. Фонд наблюдения за интернетом Великобритании (IWF) за один месяц обнаружил на одном форуме в даркнете почти 14 000 подозрительных AI-изображений, треть из которых была признана преступной. В Южной Корее зафиксирован десятикратный рост числа сексуальных преступлений с использованием ИИ и дипфейков в период с 2022 по 2024 год, причём большинство подозреваемых — подростки.

ЮНИСЕФ призвал не только ужесточить законы, но и обязать разработчиков ИИ внедрять принципы «безопасности по дизайну» (safety-by-design), включая обязательные проверки на воздействие на права детей. Агентство также требует от цифровых компаний предотвращать распространение такого контента.

Реакция регуляторов уже следует: Еврокомиссия начала расследование в отношении X за возможное нарушение цифровых правил ЕС, а Филиппины, Индонезия и Малайзия временно запретили Grok. Компания X в ответ заявила о геоблокировке функции генерации изображений реальных людей в откровенной одежде в странах, где это запрещено.

Главное сегодня
Отказ от ответственности

Данный материал носит информационный характер и не является инвестиционной рекомендацией. Криптоактивы высокорискованны и волатильны — возможна полная потеря средств. Материалы могут содержать ссылки и пересказы сторонних источников; администрация не отвечает за их содержание и точность. Coinalertnews рекомендует самостоятельно проверять информацию и консультироваться со специалистами, прежде чем принимать любые финансовые решения на основе этого контента.