Искусственный интеллект стремительно меняет облик современного бизнеса, открывая новые возможности для роста и оптимизации процессов. Однако вместе с этим возникает необходимость в четком регулировании его и правомерном использовании.
18 января 2026 года в Казахстане вступил в силу Закон «Об искусственном интеллекте». В этой статье юрисконсультант Битрикс24 Казахстан Жангали Байгалиев простым языком рассказывает, что регулирует новый закон. А также, как компаниям — на примере практики Битрикс24 — развивать ИИ без рисков, штрафов и регуляторных последствий.
Правовой статус нейросетей
Юридически системы ИИ теперь официально признаются объектами информатизации. А значит должны проверяться, чтобы соответствовать правилам безопасности. При этом для ИИ предусмотрены дополнительные требования, связанные с особенностями алгоритмов.
Закон делит ИИ-системы на три категории по уровню риска.
Системы минимального риска. К ним относятся спам-фильтры, рекомендательные алгоритмы (например, в онлайн-кинотеатрах), офисные приложения для повышения производительности и другие. Это те, что не несут угрозы безопасности, правам и свободам людей. Они не требуют строгого контроля.
Системы среднего риска. Это нейросети, создающие тексты, изображения или аудио (например, маркетинговые инструменты, редакционные помощники). Чат-боты, виртуальные ассистенты и HR-системы.
К этой категории относятся также рекомендательные системы в e-commerce: алгоритмы, предлагающие товары на основе предпочтений. Сбои в этих системах могут привести к материальному ущербу или моральному вреду, а также к снижению эффективности бизнес-процессов, но не создают прямой угрозы жизни.
Системы высокого риска. Это те, от которых буквально зависят жизни, свобода или критические права людей. К ним относятся системы ИИ в здравоохранении, кредитовании, в судах и области правопорядка. Для систем высокого риска обязателен человеческий контроль. Машина не может принять окончательное решение без подтверждения живым специалистом.

Что запрещено делать с помощью ИИ
В Казахстане ввели ряд жестких запретов на определенные способы использования технологий ИИ.
Манипуляция сознанием: запрещено применять искусственный интеллект для скрытого влияния на подсознание людей, чтобы изменить их поведение, если это может нанести вред им или окружающим.
Эксплуатация уязвимостей: нельзя использовать ИИ для манипуляции слабостями людей, связанными с их возрастом, физическими или психическими особенностями.
Социальный скоринг: полностью запрещены системы, которые оценивают и классифицируют граждан на основе их социального поведения или личных характеристик, аналогичные системе «социального рейтинга».
Биометрическая слежка в реальном времени: массовая идентификация лиц в общественных местах в режиме реального времени запрещена. Исключения составляют случаи поиска пропавших детей, предотвращения террористических актов или розыска преступников по решению суда.
Определение эмоций без согласия: использование систем распознавания эмоций в рабочих или учебных процессах возможно только при наличии явного согласия человека.
Дискриминация: алгоритмы, которые могут привести к предвзятости или дискриминации по признакам пола, расы, религии или социального статуса, запрещены.
Как правильно маркировать контент с ИИ
Любой контент, созданный ИИ, теперь должен быть соответствующим образом промаркирован. Чтобы не нарваться на штраф (который для юрлиц может быть весьма ощутимым), маркировка должна быть явной и понятной. Закон не просто просит «упомянуть ИИ», а требует, чтобы зритель сразу понял: перед ним синтетический контент.
Текст:
В начале или в конце статьи/поста должна быть четкая плашка: «Данный материал создан при помощи системы искусственного интеллекта». Если ИИ только помогал (редактировал), формулировка может быть: «Материал подготовлен с использованием ИИ-ассистента».
Изображения:
В углу картинки должна быть нестираемая надпись (например, «AI Generated» или «Создано ИИ»). В файл должна быть вшита метка о происхождении контента (современные сервисы вроде Midjourney или Photoshop делают это автоматически).
Видео и Дипфейки:
На протяжении всего видео в углу должен висеть значок или надпись «ИИ-генерация». А в описании к видео и в первых кадрах ролика должно быть указано, что образы или голоса являются синтетическими.
Аудио:
Перед началом прослушивания (например, в подкасте или при звонке робота) должно идти звуковое уведомление: «Голос синтезирован искусственным интеллектом».
Где маркировка НЕ нужна:
- В личной переписке (если вы не вводите человека в заблуждение с целью выгоды).
- При использовании простых инструментов (фильтры яркости, удаление шума, проверка орфографии).
- В художественных фильмах, где использование спецэффектов очевидно для зрителя.
За нарушение этих норм и правил эксплуатации ИИ (включая отсутствие обязательной маркировки контента) предусмотрена административная ответственность по статье 641-1 КоАП РК.
Как развивать свой бизнес с ИИ без рисков
Чтобы бизнес с помощью ИИ-инструментов не только развивался, но и оставался в правовом поле, важно соблюдать баланс между эффективностью и требованиями закона.
Вот пошаговый гайд по правильному внедрению ИИ:
- Определите категорию риска
Перед внедрением проведите внутренний аудит. Если ваша система ИИ помогает в медицине и банковском скоринге, она, скорее всего, относится к высокому риску.
Что делать: Вам потребуется зарегистрировать систему в Комитете цифровых активов и проходить регулярный аудит безопасности.
- Защитите данные клиентов
Закон РК строго наказывает за утечки.
Правило: Не «скармливайте» публичным нейросетям (вроде ChatGPT) персональные данные клиентов или коммерческую тайну.
Решение: Используйте локальные языковые модели или корпоративные версии с закрытым контуром обработки данных.
- Настройте обязательную маркировку
Если ваш бизнес использует ИИ для общения с клиентами или создания рекламы:
В чат-ботах: В начале диалога добавьте фразу: «Здравствуйте! С вами говорит ИИ-ассистент».
В маркетинге: На изображениях, созданных нейросетями, ставьте пометку «Создано ИИ». Это защитит вас от штрафов за введение потребителей в заблуждение.
- Внедрите «Человеческий контроль»
Никогда не оставляйте финальное решение за алгоритмом, если оно касается прав человека (например, отказ в услуге или увольнение).
Правило: Всегда должен быть сотрудник, который может перепроверить и отменить решение ИИ. Это обязательное требование для систем среднего и высокого риска.
- Оформите права на интеллектуальную собственность
Помните, что чистый контент от ИИ в Казахстане не защищен авторским правом.
Лайфхак: Чтобы защитить созданный логотип или код, зафиксируйте в истории правок значительный «творческий вклад человека» (правки, доработки, детальные промпты).
- Этический кодекс компании Разработайте внутренний документ, запрещающий использование ИИ для манипуляций или дискриминации. В 2026 году это не просто этика, а страховка от судебных исков.
Вопросы и ответы
Закон охватывает все системы ИИ, которые используются в Казахстане, включая минимальный, средний и высокий уровни риска. Например, это могут быть рекомендательные алгоритмы, чат-боты, системы в здравоохранении или кредитовании.
За отсутствие обязательной маркировки предусмотрены штрафы, а в некоторых случаях — административная или уголовная ответственность. Для юридических лиц штрафы могут быть особенно значительными.
- Текст: укажите, что материал создан или отредактирован с помощью ИИ.
- Изображения: добавьте надпись «Создано ИИ» и встройте метку в файл.
- Видео: укажите, что видео или голоса синтетические, и добавьте значок «ИИ-генерация».
- Аудио: перед воспроизведением добавьте звуковое уведомление о синтезе голоса.
Не используйте публичные нейросети для обработки персональных данных. Лучше применять локальные модели или корпоративные версии с закрытым контуром.
Убедитесь, что все материалы, созданные ИИ, имеют соответствующую маркировку, чтобы избежать введения потребителей в заблуждение.