Как избежать рисков и штрафов с новым законом об ИИ в Казахстане

Как избежать рисков и штрафов с новым законом об ИИ в Казахстане

12 min
20
Нейросети

Искусственный интеллект стремительно меняет облик современного бизнеса, открывая новые возможности для роста и оптимизации процессов. Однако вместе с этим возникает необходимость в четком регулировании его и правомерном использовании.

18 января 2026 года в Казахстане вступил в силу Закон «Об искусственном интеллекте». В этой статье юрисконсультант Битрикс24 Казахстан Жангали Байгалиев простым языком рассказывает, что регулирует новый закон. А также, как компаниям — на примере практики Битрикс24 — развивать ИИ без рисков, штрафов и регуляторных последствий.

Правовой статус нейросетей

Юридически системы ИИ теперь официально признаются объектами информатизации. А значит должны проверяться, чтобы соответствовать правилам безопасности. При этом для ИИ предусмотрены дополнительные требования, связанные с особенностями алгоритмов.

Так как в платформе Битрикс24 искусственный интеллект пронизывает практически все инструменты — от CRM до аналитики и коммуникаций, работа ИИ изначально выстроена с учетом требований законодательства.

Закон делит ИИ-системы на три категории по уровню риска.

Системы минимального риска. К ним относятся спам-фильтры, рекомендательные алгоритмы (например, в онлайн-кинотеатрах), офисные приложения для повышения производительности и другие. Это те, что не несут угрозы безопасности, правам и свободам людей. Они не требуют строгого контроля.

Системы среднего риска. Это нейросети, создающие тексты, изображения или аудио (например, маркетинговые инструменты, редакционные помощники). Чат-боты, виртуальные ассистенты и HR-системы.

К этой категории относятся также рекомендательные системы в e-commerce: алгоритмы, предлагающие товары на основе предпочтений. Сбои в этих системах могут привести к материальному ущербу или моральному вреду, а также к снижению эффективности бизнес-процессов, но не создают прямой угрозы жизни.

BitrixGPT используется как ИИ-помощник, а не как автономный субъект принятия решений. Финальное решение всегда остается за пользователем — это принципиальная позиция Компании.

Системы высокого риска. Это те, от которых буквально зависят жизни, свобода или критические права людей. К ним относятся системы ИИ в здравоохранении, кредитовании, в судах и области правопорядка. Для систем высокого риска обязателен человеческий контроль. Машина не может принять окончательное решение без подтверждения живым специалистом.

Задачи в Битрикс24

Что запрещено делать с помощью ИИ

В Казахстане ввели ряд жестких запретов на определенные способы использования технологий ИИ.

Манипуляция сознанием: запрещено применять искусственный интеллект для скрытого влияния на подсознание людей, чтобы изменить их поведение, если это может нанести вред им или окружающим.

Эксплуатация уязвимостей: нельзя использовать ИИ для манипуляции слабостями людей, связанными с их возрастом, физическими или психическими особенностями.

Социальный скоринг: полностью запрещены системы, которые оценивают и классифицируют граждан на основе их социального поведения или личных характеристик, аналогичные системе «социального рейтинга».

Биометрическая слежка в реальном времени: массовая идентификация лиц в общественных местах в режиме реального времени запрещена. Исключения составляют случаи поиска пропавших детей, предотвращения террористических актов или розыска преступников по решению суда.

Определение эмоций без согласия: использование систем распознавания эмоций в рабочих или учебных процессах возможно только при наличии явного согласия человека.

Дискриминация: алгоритмы, которые могут привести к предвзятости или дискриминации по признакам пола, расы, религии или социального статуса, запрещены.

В Битрикс24 мы исходим из того, что ИИ — это инструмент помощи бизнесу, а не контроля над человеком. Именно поэтому дискриминационные или манипулятивные сценарии в платформе исключены на уровне архитектуры.

Как правильно маркировать контент с ИИ

Любой контент, созданный ИИ, теперь должен быть соответствующим образом промаркирован. Чтобы не нарваться на штраф (который для юрлиц может быть весьма ощутимым), маркировка должна быть явной и понятной. Закон не просто просит «упомянуть ИИ», а требует, чтобы зритель сразу понял: перед ним синтетический контент.

Текст:
В начале или в конце статьи/поста должна быть четкая плашка: «Данный материал создан при помощи системы искусственного интеллекта». Если ИИ только помогал (редактировал), формулировка может быть: «Материал подготовлен с использованием ИИ-ассистента».

Изображения:
В углу картинки должна быть нестираемая надпись (например, «AI Generated» или «Создано ИИ»). В файл должна быть вшита метка о происхождении контента (современные сервисы вроде Midjourney или Photoshop делают это автоматически).

Видео и Дипфейки:
На протяжении всего видео в углу должен висеть значок или надпись «ИИ-генерация». А в описании к видео и в первых кадрах ролика должно быть указано, что образы или голоса являются синтетическими.

Аудио:
Перед началом прослушивания (например, в подкасте или при звонке робота) должно идти звуковое уведомление: «Голос синтезирован искусственным интеллектом».

Где маркировка НЕ нужна:

  • В личной переписке (если вы не вводите человека в заблуждение с целью выгоды).
  • При использовании простых инструментов (фильтры яркости, удаление шума, проверка орфографии).
  • В художественных фильмах, где использование спецэффектов очевидно для зрителя.
Важный нюанс: Если вы создали дипфейк с реальным человеком без его согласия — даже с маркировкой это может стать поводом для судебного иска о защите чести и достоинства.

За нарушение этих норм и правил эксплуатации ИИ (включая отсутствие обязательной маркировки контента) предусмотрена административная ответственность по статье 641-1 КоАП РК.

Как развивать свой бизнес с ИИ без рисков

Чтобы бизнес с помощью ИИ-инструментов не только развивался, но и оставался в правовом поле, важно соблюдать баланс между эффективностью и требованиями закона.

Вот пошаговый гайд по правильному внедрению ИИ:

  1. Определите категорию риска

    Перед внедрением проведите внутренний аудит. Если ваша система ИИ помогает в медицине и банковском скоринге, она, скорее всего, относится к высокому риску.

    Что делать: Вам потребуется зарегистрировать систему в Комитете цифровых активов и проходить регулярный аудит безопасности.

  2. Защитите данные клиентов

    Закон РК строго наказывает за утечки.

    Правило: Не «скармливайте» публичным нейросетям (вроде ChatGPT) персональные данные клиентов или коммерческую тайну.

    Решение: Используйте локальные языковые модели или корпоративные версии с закрытым контуром обработки данных.

  3. Настройте обязательную маркировку

    Если ваш бизнес использует ИИ для общения с клиентами или создания рекламы:

    В чат-ботах: В начале диалога добавьте фразу: «Здравствуйте! С вами говорит ИИ-ассистент».

    В маркетинге: На изображениях, созданных нейросетями, ставьте пометку «Создано ИИ». Это защитит вас от штрафов за введение потребителей в заблуждение.

  4. Внедрите «Человеческий контроль»

    Никогда не оставляйте финальное решение за алгоритмом, если оно касается прав человека (например, отказ в услуге или увольнение).

    Правило: Всегда должен быть сотрудник, который может перепроверить и отменить решение ИИ. Это обязательное требование для систем среднего и высокого риска.

  5. Оформите права на интеллектуальную собственность

    Помните, что чистый контент от ИИ в Казахстане не защищен авторским правом.

    Лайфхак: Чтобы защитить созданный логотип или код, зафиксируйте в истории правок значительный «творческий вклад человека» (правки, доработки, детальные промпты).

  6. Этический кодекс компании Разработайте внутренний документ, запрещающий использование ИИ для манипуляций или дискриминации. В 2026 году это не просто этика, а страховка от судебных исков.

Вопросы и ответы

Какие системы подпадают под действие нового закона об ИИ в Казахстане?

Закон охватывает все системы ИИ, которые используются в Казахстане, включая минимальный, средний и высокий уровни риска. Например, это могут быть рекомендательные алгоритмы, чат-боты, системы в здравоохранении или кредитовании.

Что будет, если не маркировать контент, созданный ИИ?

За отсутствие обязательной маркировки предусмотрены штрафы, а в некоторых случаях — административная или уголовная ответственность. Для юридических лиц штрафы могут быть особенно значительными.

Как правильно маркировать контент, созданный ИИ?

  • Текст: укажите, что материал создан или отредактирован с помощью ИИ.
  • Изображения: добавьте надпись «Создано ИИ» и встройте метку в файл.
  • Видео: укажите, что видео или голоса синтетические, и добавьте значок «ИИ-генерация».
  • Аудио: перед воспроизведением добавьте звуковое уведомление о синтезе голоса.

Как защитить данные клиентов при использовании ИИ?

Не используйте публичные нейросети для обработки персональных данных. Лучше применять локальные модели или корпоративные версии с закрытым контуром.

Что делать, если ИИ используется в маркетинге?

Убедитесь, что все материалы, созданные ИИ, имеют соответствующую маркировку, чтобы избежать введения потребителей в заблуждение.

Жангали Байгалиев
Юрисконсульт Битрикс24 Казахстан
Рекомендуем
Показать еще