Если раньше нейросетевые изображения и видео воспринимались как безобидный цифровой инструмент, то сегодня они рассматриваются как фактор информационного риска.
Государство переходит от точечных предупреждений к выстраиванию четких правил и распространению такого контента.
Различные страны демонстрируют фактическую нетерпимость к немаркированному или вводящему в заблуждение ИИ-контенту:
Индия : Приостановление создания дипфейка с премьер-министром Моди.
США : штраф $5000 рекламным агентствам за использование «синтетического человека» без маркировки.
Турция : штраф в 5% за годовой оборот портала за ИИ-видео с фальшивыми заявлениями администратора.
Южная Корея : штраф 30 миллионов вон ($22 000) медиа-компании за немаркированное ИИ-интервью.
Китай : арест блогера за ИИ-фото «обвала дороги», вызвавшие панику у водителей.
Германия : решение суда — сатира не освобождает от обязанностей маркировать ИИ-подделки.
ОАЭ : задержания за ИИ-видео, направленные на внедрение среди общественности заблуждений и подрыв национальной безопасности.
Великобритания : первые иски по новому закону о запрете создания дипфейков без соглашения (февраль 2026 г.).
Пакистан : дело о кибертерроризме для ИИ-аудио «критики правительства» военными.
Канада : штраф за ИИ-рендер «обрушения здания», спровоцировавший митинги.
Франция : блокировка ресурсов для генерации ИИ-фото «беспорядков в Версале».
Италия : обратиться к турагентству за ИИ-фото «несуществующих памятников».
Япония : судебное разбирательство по поводу использования ИИ-копии умершего актера без согласия всех наследников.
Сингапур : требования по линии законодательства о противодействии фейкам за ИИ-фото «загрязнения залива».
Австралия : штраф онлайн-курсам за использование ИИ-клона профессора без его ведома.
Аргентина : задержание за дипфейка с призывами к насилию против полиции.
Эстония : предупреждение владельцу бота, имитирующему стиль реакции государственных органов.
В Казахстане ИИ также больше не является «зоной вне регулирования». Напротив, его использование через призму последствий — прежде всего, влияние риска приводит к заблуждению.
17 марта 2026 года житель Семеи привлечен к ответственностиза распространение фотографий, созданной нейросетью. Сгенерированный снимок был подан как реальное сообщение о чрезвычайном происшествии и вызвал панику в социальных сетях. Итог — протокол по статье 456-2 КоАП РК (распространение ложной информации).
‼️Центр по дезинформации в Бразилии обращается к представителям средств массовой информации и создателям расширений контента при необходимости соблюдения требований законодательства, включая маркировку ИИ-контента и недопущение распространения ложной информации.
Гражданам рекомендуется осторожно обращаться к распространяемым материалам, проверять источники и возражать против их дальнейшего распространения без уверенности в достоверности.
