Правовое регулирование использования искусственного интеллекта в Казахстане: текущий статус и вызовы

Искусственный интеллект (ИИ) становится важным элементом цифровой трансформации в Казахстане. Он применяется в медицине, образовании, финансах, промышленности и госуслугах. Однако широкое внедрение ИИ требует надлежащего правового регулирования, чтобы обеспечить баланс между инновациями, безопасностью и защитой прав граждан. В статье анализируем текущее состояние регулирования ИИ в РК и основные вызовы 2025 года.

Что входит в понятие ИИ в казахстанском контексте?

Национальные нормативные акты пока не содержат официального определения ИИ. Однако в проекте Концепции развития искусственного интеллекта до 2030 года ИИ определяется как система, способная обучаться, анализировать, прогнозировать и принимать решения без участия человека.

Ключевые сферы применения ИИ в Казахстане:

  • Обработка больших данных (Big Data) в банковской сфере;
  • Диагностика заболеваний на основе нейросетей;
  • Системы «умный город» (Smart City);
  • Автоматизация госуслуг (включая eGov);
  • Предиктивная аналитика в образовании и транспорте.

Нормативно-правовая база (по состоянию на 2025 год):

Законы и документы, касающиеся ИИ косвенно:

  • Закон «О персональных данных и их защите»;
  • Закон «Об информатизации»;
  • Гражданский кодекс (в части ответственности за вред);
  • Концепция цифровизации Казахстана до 2025 года;
  • Доктрина цифровых прав граждан (в разработке).

Основные проблемы регулирования

1. Отсутствие специального закона об ИИ

На 2025 год отсутствует комплексный закон, регулирующий разработку, внедрение и ответственность при использовании ИИ.

2. Неопределённость юридической ответственности

  • Кто несёт ответственность при ошибке алгоритма: разработчик, заказчик, владелец системы?
  • Отсутствие единого подхода порождает правовую неопределённость.

3. Риски нарушения прав человека

  • Проблемы дискриминации и необъективности решений алгоритмов;
  • Нарушение права на приватность и безопасность персональных данных.

4. Отсутствие механизмов сертификации ИИ-систем

Нет единого стандарта или сертификации, проверяющего безопасность и корректность работы ИИ.

Международные практики для сравнения

  • ЕС: разрабатывается закон об искусственном интеллекте (AI Act), который вводит уровни риска ИИ-систем и обязательную сертификацию;
  • КНР: ужесточено регулирование алгоритмов в цифровых платформах;
  • США: используется фрагментарный подход с регулированием на уровне штатов и отраслей.

Рекомендации по совершенствованию правового регулирования

  • Принятие Закона РК «Об искусственном интеллекте» с определением понятий, принципов и ответственности;
  • Разработка стандартов безопасности и прозрачности ИИ;
  • Введение обязательной экспертизы и сертификации высокорисковых ИИ-систем;
  • Создание независимого органа по надзору за ИИ;
  • Защита цифровых прав граждан и недопущение дискриминации алгоритмами.

Заключение

Искусственный интеллект — мощный инструмент прогресса, но при отсутствии чётких правил он может создавать риски. Казахстану предстоит выстроить правовую систему, которая позволит развивать ИИ в интересах общества, бизнеса и государства, соблюдая при этом базовые права и свободы граждан.


Вопросы и ответы:

  1. Есть ли в РК закон об искусственном интеллекте?
    Ответ: Пока нет, разрабатывается концепция.
  2. Кто отвечает за сбои в работе ИИ?
    Ответ: Это не определено законодательно, зависит от конкретного контекста.
  3. Можно ли использовать ИИ в госуслугах?
    Ответ: Да, активно внедряется в рамках цифровизации.
  4. Какие риски связаны с ИИ?
    Ответ: Ошибки, дискриминация, нарушение приватности.
  5. Нужна ли сертификация ИИ-систем?
    Ответ: В Казахстане — нет, но международная практика рекомендует.
  6. Используется ли ИИ в медицине?
    Ответ: Да, в диагностике и анализе данных.
  7. Есть ли защита цифровых прав в РК?
    Ответ: В процессе разработки Доктрина цифровых прав.
  8. Будет ли принят отдельный закон об ИИ?
    Ответ: Ожидается в ближайшие годы.
  9. Применяется ли ИИ в образовании?
    Ответ: Да, для адаптивного обучения и анализа успеваемости.
  10. Можно ли оспорить решение, принятое ИИ?
    Ответ: Да, если оно нарушает права человека, через суд или госорганы.

Полезная информация и профессиональная помощь

Посетите наш сайт: https://femida-justice.com.
Свяжитесь с нашими юристами уже сегодня, чтобы начать работу без промедлений!

Наши контакты:

Телефон: +7 708 983 6577, +77089836599
Наш WhatsApp: Написать
Электронная почта: info@femida-justice.com

Подписывайтесь на нас в социальных сетях, чтобы быть в курсе новостей:

TikTok | Facebook | Instagram | YouTube

Related Posts