4vlastinfo.kz Значение и последствия нового закона “Об искусственном интеллекте” (ИИ), подписанного президентом Казахстана К.Ж.Токаевым. Ключевые положения закона, риски и выгоды, а также его значимость для жизни обычных людей.
Казахстан стоит на пороге новой эпохи: 24 сентября 2025 года Мажилис принял закон «Об искусственном интеллекте»,а в начале этой недели он уже подписан президентом Токаевым.
Это событие — не просто формальность: законодательство вводит новые правила, ограничения и ответственность для ИИ-компаний и разработчиков. Для обычных граждан это может значить гораздо больше — в будущем ИИ будет регулироваться, но при этом развитие технологий не остановят.
Что именно меняется и как это может повлиять на нашу повседневную жизнь.
Основные положения закона и ключевые нововведения
Категории ИИ
Закон разделяет нейросети на три типа:
Вспомогательный ИИ, где решения принимает человек.
Полуавтономный ИИ, который принимает решения в рамках заданных параметров, но человек может вмешаться.
Полностью автономный ИИ — нейросеть действует без вмешательства человека.
Важно: полностью автономные ИИ будут запрещены в Казахстане.
Уровни риска
ИИ-системы классифицируются по уровню риска: минимальный, средний и высокий.
Минимальный риск — сбои почти не влияют на пользователей.
Средний риск — сбой может наносить экономический ущерб.
Высокий риск — сбой может угрожать безопасности, экономике, инфраструктуре или жизни людей.
Владельцы ИИ-систем сами определяют, к какому уровню относится их система, на основании правил классификации объектов информатизации. Системы высокого риска попадают под усиленный контроль.
Запреты на определённые виды ИИ-деятельности
Согласно закону, ИИ не будет иметь право:
манипулировать людьми, воздействовать на подсознание;
использовать уязвимость людей — возраст, инвалидность, социальное положение;
оценивать социальное поведение, формируя «рейтинги» граждан;
собирать биометрические данные из открытых источников без согласия и создавать базы лиц;
дискриминировать людей по признаку расы, религии, возраста и др.;
считывать эмоции человека без его согласия;
распознавать лица в публичных местах в реальном времени (за исключением строго определённых случаев);
генерировать запрещённый контент.
Закон прямо заявляет, что ИИ должен гарантировать равенство, справедливость и достоинство всех людей.
Эмоции и ИИ Особое ограничение — ИИ не сможет анализировать эмоциональное состояние человека без его согласия. Это важно: нельзя будет использовать нейросети для манипуляций или психологического давления.
При этом закон предусматривает, что анализ эмоций в некоторых «пользовательских» сценариях возможен, если он используется для общественно полезных целей. Например, нейросети могут помогать госорганам анализировать настроение граждан, расставлять приоритеты в обращениях и улучшать работу.
Дипфейки и защита прав потребителей Закон вводит требование маркировки синтетического контента — видео, фото или текст, созданный ИИ, должен быть явно обозначен. Это важный шаг в борьбе с дезинформацией и злоупотреблениями.
Кроме того, если вы получаете услугу или продукт, созданные с помощью ИИ, вам должны это сообщить. Права потребителей теперь распространяются и на ИИ-контент.
Авторские права и обучение ИИ Закон устанавливает механизм защиты авторов: если вы — автор произведения, вы можете запретить использованию своего контента для обучения нейросетей. Это значит, что ИИ не сможет автоматически «перетягивать» ваши тексты, песни, картинки для тренировки, если вы этого не разрешите.
При этом, если вы активны, то ваш уникальный «промпт» (запрос, который вы даёте ИИ, чтобы он генерировал контент) может получить правовую защиту — как ваша интеллектуальная собственность.
Также предусмотрена правовая ответственность: если нейросеть зарабатывает на вашем контенте без вашего согласия, вы сможете обратиться в суд.
Контроль и ответственность ИИ-системы должны находиться под контролем владельцев: это не «черный ящик». Ответственность за решения, принятые с помощью ИИ, всё равно остаётся за человеком, который использует систему.
То есть даже если ИИ выдал неправильный или вредный результат — отвечать будет не машина, а владелец, разработчик или оператор.
Переходный период Закон начинает действовать сразу, но многие ограничения и правила будут вводиться постепенно через подзаконные акты. Это даёт время регулировать, тестировать и адаптировать форматы.
Вице-министр цифрового развития Дмитрий Мун сказал, что правительство пошло по пути «запретить только то, что точно плохо» — а другие ограничения могут вводиться позже.
Новый контролирующий орган Под закон создаётся специальное министерство — Министерство искусственного интеллекта и цифрового развития, которым будет курировать целый вице-премьер. Это даёт регулятору серьёзные полномочия и возможность влиять на развитие ИИ в государстве.
Почему этот закон может быть важен для обычных людей
Защита от манипуляций и слежки. Представьте, что приложение с ИИ предлагает «тест», считывает ваше настроение и пытается навязать рекламные предложения или принятие решений — теперь такие практики будут строго ограничены.
Ваши данные под защитой. Фото/видео, опубликованные вами, не могут быть автоматически скопированы ИИ-системами без разрешения, если вы запретили использование своих материалов.
Честность синтеза. Если слышите, что что-то «слишком реалистично», вы теперь имеете право требовать, чтобы это было маркировано как «создано ИИ».
Ответственность. Если ИИ ошибся и вы потеряли деньги или репутацию, вы будете знать, кому предъявлять претензии — не “ИИ”, а человек, который его использует.
Право на отказ. Вы сможете отказаться от автоматизированной обработки, если не хотите, чтобы ИИ анализировал вашу психику или эмоции.
Возможные риски и критика
Сложности с исполнением. Закон — хороший, но многое будет зависеть от подзаконных актов, регламентов и эффективности министерства ИИ. Как быстро они настроят контроль и механизм санкций — большой вопрос.
Упрощённая классификация “риск-уровней”. Владельцы систем сами определяют уровень риска ИИ — это может стать способом избежать строгого контроля.
Авторские споры. Возможны судебные конфликты: например, если несколько нейросетей обучаются на одних и тех же произведениях, и разные авторы заявят свои права.
Замедление инноваций. Жёсткие ограничения (маркирование контента, запреты) могут отпугнуть стартапы и разработчиков, которые не захотят работать в жестко регулируемой среде.
Цифровое неравенство. Регуляция может затронуть крупные ИИ-платформы, но простые граждане (в том числе в деревнях) могут остаться без доступа к преимуществам ИИ, если разработчики уйдут из Казахстана.
Концептуальное значение: что это говорит об обществе и государстве
Закон “Об ИИ” — это шаг к гражданско-этическому регулированию технологий. Власть признаёт, что ИИ — не нейтральный инструмент, а социальный актор, влияющий на права, свободы и достоинство.
Это попытка найти баланс между инновациями и ответственностью: закон не запрещает ИИ, но вводит очень конкретные ограничения там, где возможен вред человеку.
Создание Министерства ИИ говорит о том, что Казахстан стремится быть не только пользователем технологий, но и регулировать их развитие на государственном уровне — это стратегическая ставка.
С точки зрения защиты прав — закон может стать защитным экраном для граждан: от манипуляций, от массового сбора биометрии, от “нейросетевого шпионажа”.
Что дальше: как будет работать закон на практике
Подзаконные акты. Это один из ключевых этапов: регламенты определят, как на практике будет осуществляться классификация ИИ-систем, контроль, проверки и ответственность.
Контроль за этическим ИИ. Министерство ИИ должно разработать кодексы поведения, аудит и механизмы сертификации «доверенных» ИИ-систем.
Просвещение граждан. Надо обучать людей: что такое ИИ, как работает анализ эмоций, как защитить свои данные — без этого закон останется абстракцией.
Мониторинг и оценка эффективности. Через 2–3 года необходимо оценить: снизились ли случаи злоупотреблений ИИ, соблюдаются ли запреты, не замедлился ли технологический прогресс.
Подписание закона «Об искусственном интеллекте» — значимый поворотный момент для Казахстана. Это не просто про технологический контроль: это про этические стандарты, про ответственность людей, которые разрабатывают и запускают ИИ, и про защиту граждан, на которых эти технологии влияют.
Закон не перекрывает весь путь ИИ, но устанавливает рамки. Он говорит: мы хотим ИИ, но не без правил.
Для граждан это шанс на большую безопасность — от манипуляций, от “нейросетевого шпионажа” и от невидимых алгоритмов. Для разработчиков — вызов: строить бизнес, учитывая этику, права и долгосрочные риски.
Для государства — возможность стать драйвером ответственных технологий, а не просто их пользователем.
Если этот закон заработает в духе — с контролем, прозрачностью и участием граждан — он может стать фундаментом для устойчивого ИИ-будущего в Казахстане. Но если формальные правила останутся лишь формальностью — реалий, когда ИИ может причинить вред или быть использован без согласия человека, никто не отменял.
Именно от того, как этот закон будет имплементирован, зависит, станет ли Казахстан лидером ИИ-этики или просто очередной страной с “красивым законом на бумаге”.
Автор: Гульмира Сарбасова
Главный редактор: Мадина Жатканбаева
+7 777 471 71 40
777kakon@mail.ru
© Свидетельство о постановке на учет периодического печатного издания, информационного агентства и сетевого издания №KZ15VPY00079493 выдано 19.10.2023