Все ходы будут записаны?
Как в Казахстане намерены отслеживать контент, сгенерированный искусственным интеллектом
С 18 января 2026 года вступает в силу закон об искусственном интеллекте, который выводит нашу страну в число мировых рекордсменов по… жесткости регулирования ИИ.
Пока Европа осторожно примеряется к новым правилам жизни в симбиозе с ИИ, а в США продолжают спорить о свободе инноваций, Казахстан выбрал прямолинейный подход: вводятся тотальная маркировка ИИ-контента, немаленькие штрафы и особый контроль за системами, которые реально влияют на судьбы людей.
Формально цель выглядит безупречно. Интернет уже наводнен deepfake-видео якобы с участием знаменитостей, фальшивыми фото "с места событий" и текстами, за которыми нет настоящего автора. В такой реальности государство как бы пытается вернуть базовую вещь - понимание того, где осязаемая действительность, а где цифровая имитация.
А на плече горит клеймо…
Ключевая норма казахстанского закона предельно проста: любой контент, созданный или измененный с помощью ИИ и распространяемый публично, должен быть промаркирован. Причем не как-нибудь мелким шрифтом, а так, чтобы пользователь понял это сразу - через видимый дисклеймер, иконку или водяной знак, плюс метку в данных файла.
Не предусматривается никаких делений по степеням риска, нет скидок на художественный эксперимент или безобидный мем.
На этом фоне аналогичный европейский закон AI Act выглядит куда более деликатным. В Евросоюзе контент, сгенерированный при помощи ИИ, делят на четыре уровня риска: от полностью запрещенных практик вроде социального скоринга (когда алгоритм напрямую влияет на принятие решений касательно конкретного человека) до почти полностью разрешенных игр и художественных фильтров.
Вообще, для генеративного контента в ЕС по умолчанию действует принцип прозрачности: провайдеры должны делать контент машиночитаемым (то есть вносить в него водяные знаки или метатеги), а распространители - информировать пользователей о синтетической природе такого материала.
Но это касается в основном ограниченного и высокорискового контента, а также публикаций на общественно значимые темы. Полностью универсальной маркировки всего ИИ-контента в Европе нет. По сути, в настоящее время правила там скорее формальные, хоть и жутко бюрократизированные. Более того, их внедрение растянуто до 2026-2027 годов, чтобы рынок успел адаптироваться.
А вот Казахстан решил не ждать. У нас все проще: либо маркируешь, либо нарушаешь.

Штраф на совесть
За нарушение требований по маркировке контента в Кодекс об административных правонарушениях введена отдельная статья.
За отсутствие маркировки физлицо может заплатить от 15 до 30 МРП за первое нарушение и до 50-100 МРП - за повторное. Штраф для малого бизнеса начинается с 20 МРП - то есть счет идет на десятки тысяч тенге, для крупного бизнеса - на сотни тысяч. При повторном нарушении штраф для большой компании доходит до 200 МРП, то есть почти 900 тысяч тенге.
И это еще не потолок. Если немаркированный ИИ-контент признают ложной информацией, подключатся дополнительные статьи КоАП и суммы вырастут. Помимо этого возможны приостановка использования конкретной ИИ-системы или запрет на ее эксплуатацию до устранения нарушений.
Впрочем, в Европе штрафы для бизнес-структур выглядят еще более пугающе - до семи процентов оборота компании. Но там и требования сложнее, и их применение, как уже говорилось выше, растянуто во времени. Казахстан же выбрал более приземленную, но быструю модель: штрафы меньше, зато, как предполагается, будут прилетать сразу, без долгой раскачки.
Вопрос в том, как определить, что контент сгенерирован ИИ, если на нем все-таки нет метки о том, что он сгенерирован ИИ?
- Технически это довольно сложный вопрос. Скорее всего, в зависимости от ситуации будут привлекать внешних экспертов для оценки контента, - рассуждает IT-консультант Николай ЮРКАВЕЦ. - Внутри самого сгенерированного контента (точнее - внутри тела файла) нет никаких меток, по которым его можно было бы отследить и идентифицировать как сгенерированный. Признаки только косвенные. Тем более если ты не пользуешься публичными сервисами, то можешь сделать свой собственный ИИ для генерации видео, картинок и текстов - если, конечно, у тебя имеются деньги на оборудование. Модели ИИ есть в открытом доступе: можно обучать одну из них под свои нужды, в итоге она будет работать по твоим правилам. Собственно, даже платформа Международного центра искусственного интеллекта Alem.ai работает на базе открытой модели LLaMA. Поэтому как контроль за контентом будет осуществляться в соответствии с законом - не очень понятно.

Хоть поверьте, хоть проверьте
Любопытно, что при всей жесткости маркировки закон оказался неожиданно умеренным в части аудита ИИ. Проверки касаются только высокорисковых систем - тех, что используются в медицине, финансах, образовании, правоохранительных органах и других чувствительных сферах.
- Обычному человеку, если он не лезет в финансы, медицину или еще какие-нибудь дебри, где используются личные данные граждан, можно расслабиться, - считает эксперт по сетевой безопасности Вячеслав КАЦ. - Для тех, кто пишет тексты или делает видео, ничего особенно не изменится. Было бы очень затруднительно для любого уполномоченного органа мониторить на предмет использования ИИ весь контент, который доходит до казахстанцев. Это было бы сложно даже в отношении контента, который выкладывают сами казахстанцы. А во-вторых, это было бы бессмысленно: ну увидели вы на YouTube ролик, который явно сгенерирован ИИ, но не имеет соответствующей маркировки - и что? Как вы накажете YouTube или владельца канала?
Есть две большие категории ИИ-систем, объясняет эксперт: обычные (чат-боты, рекомендательные алгоритмы, генераторы мемов) и те, что считаются высокорисковыми - эти влияют на здоровье людей, безопасность, кредиты, суды, полицию, образование и т. д. Вот именно для второй группы и придумали аудит - да и то лишь в одном случае.
Аудит обязателен, если компания или госорган хочет получить официальный статус "доверенной системы высокой степени риска".
Хочешь, чтобы твою систему ИИ больницы, банки или полиция использовали без лишних вопросов? Тогда придется пройти проверку. Все должно быть чисто и законно. Нет ли там украденных персональных данных? Не дискриминируют ли наборы данных по полу, национальности, возрасту? Все ли соответствует закону?
Если все в порядке, то отраслевое министерство (Минздрав, МВД, Минобразования и прочие) включает твою систему в специальный публичный реестр. Сразу же хочется спросить: а кто все это будет проверять?
Проверять будут сами разработчики - своими силами или с помощью экспертов. Закон не заставляет нанимать дорогую независимую компанию - кстати, в отличие от Европы, где все тонет в бумагах и сертификациях.
- Выглядит это непривычно и даже как-то вегетариански, но на практике в серьезные проекты все равно зовут специалистов со стороны, чтобы не ударить в грязь лицом, - говорит Кац. - Конечно, на стадии включения в реестр будет своя бюрократия, но в целом - ничего принципиально нового не ожидается. Если вы уже проходили хотя бы одну государственную сертификацию, то вы проходили их все.
То есть государство предлагает своего рода "знак качества": хочешь получить официальный статус доверенной системы - пройди проверку, докажи чистоту данных и отсутствие скрытых манипуляций. Не хочешь - работай дальше, но без официального признания и дополнительных репутационных бонусов.
В этом смысле Казахстан сознательно не копирует европейскую модель с многоступенчатой сертификацией и нотифицированными органами. Вместо кнута у нас сразу предлагают пряник - хотя кнут в виде штрафов за отсутствие маркировки никто не отменял. Но получается, что санкции будут затрагивать только тех, кто добровольно решил зайти в государственную систему и где-то недоглядел.
Скептическая иллюзия
На бумаге все выглядит логично. На практике, скорее всего, будут возникать вопросы. Все-таки универсальная маркировка - это технологии, процессы и ответственность, которые стоят денег. Для крупных платформ - неприятно, но решаемо. Но для фрилансеров, небольших студий и стартапов это уже ощутимый барьер.
Есть и более тонкий момент: кто и как будет решать, что именно считается ИИ-контентом? Где заканчивается автоматическая коррекция и начинается "синтетическое вмешательство"? насколько последовательно будут применять нормы, когда речь пойдет о чувствительных темах?
Да, звучит благородно: защита от дезинформации, манипуляций и фейков. Но не слишком ли это жестко для развивающегося рынка? Внедрение универсальной маркировки требует технологий, которые есть не у всех. Не отпугнет ли это инвесторов и локальных разработчиков ИИ? Не превратится ли закон в инструмент для выборочного давления на неугодных?
Пока Европа тонет в бюрократии и отодвигает дедлайны, Казахстан рискует перегнуть палку в другую сторону и от полной вольницы перейти сразу к "цифровому тоталитаризму".
Закон подчеркивает человекоцентричность: дескать, ИИ - лишь инструмент, а не самостоятельный субъект. Но в реальности грань между полезным и опасным контентом именно что субъективна.
Казахстан сделал ставку на радикальную прозрачность. Это похоже на некий эксперимент, участникам которого предлагается адаптироваться под правила, еще нигде и никогда не действовавшие.
Пока можно сказать одно: эпоха анонимного ИИ в стране закончилась. Теперь цифровые иллюзии придется подписывать по имени и фамилии - и платить за забывчивость вполне реальными деньгами. А уж станет ли это страховкой от фейков или новой головной болью для рынка, покажет ближайшее будущее.
Владислав ШПАКОВ, Астана

Владислав ШПАКОВ