Дискриминировать людей и ещё много чего запрещают ИИ в Казахстане. Разбираем новый закон

Елизавета Аксенова
Елизавета Аксенова Корреспондент

ПОДЕЛИТЬСЯ

Дискриминировать людей и ещё много чего запрещают ИИ в Казахстане. Разбираем новый закон Изображение сгенерировано ИИ

Ограничение для нейросетей на анализ эмоций, запрет для них на дискриминацию людей по признаку расы или религии, невозможность для ИИ использовать материалы с авторским правом — всё это может и, скорее всего, совсем скоро заработает в Казахстане.

ПОДЕЛИТЬСЯ
grid Краткий пересказ текста от Tengri AI Этот текст сгенерирован ИИ
  • 24 сентября 2025 года Мажилис Казахстана принял закон "Об искусственном интеллекте", он будет также рассмотрен в Сенате.
  • Но в нынешнем виде закон запрещает полностью автономные системы ИИ (неподконтрольные человеку) и вводит классификацию по уровням риска: минимальный, средний и высокий.
  • Документ накладывает также запреты на использование ИИ для манипуляции людьми, дискриминации, сбора биометрии и анализа эмоций без согласия пользователя.
  • Синтетический контент, то есть созданный ИИ, должен быть маркирован, а потребители предупреждены о том, что его произвёл не человек.
  • Авторы могут запретить использование своих произведений для обучения ИИ, а нарушения могут быть предметом судебных разбирательств.
  • Закон предусматривает поэтапное введение регулирования через подзаконные акты, без жёстких запретов на старте.
  • В Казахстане также создано Министерство искусственного интеллекта и цифрового развития для регулирования данной сферы.

24 сентября 2025 года Мажилис принял закон "Об искусственном интеллекте". Впереди ещё рассмотрение в Сенате. Но, как показывает практика, на следующих этапах обычно больших изменений не происходит.

Что ещё нельзя будет делать нейросетям в Казахстане, что в документе говорится о дипфейках и при чём тут защита прав потребителей — корреспондент Tengrinews изучила закон и разобрала основное.

Спойлер: жёстких запретов в работе нейросетей не будет — регулирование обещают вводить постепенно, а системы искусственного интеллекта обяжут признавать достоинства каждого человека. Но всё же в законе много интересного.

Но обо всём по порядку. Сначала разберём базовые понятия. 

Виды нейросетей 

В законе указываются три вида нейросетей. 

Первый — вспомогательный искусственный интеллект

Это когда нейросеть помогает, но все решения принимает сам человек.

Второй вид — полуавтономный ИИ

Он принимает решения в рамках заданных параметров, но человек всё равно может вмешаться и изменить результат.

Третий тип — полностью автономный искусственный интеллект

Когда нейросеть принимает решения сама, без контроля и вмешательства человека.

Но автономный вид ИИ будет в стране запрещён. 

Системы поделят и по уровню риска: 

  • Минимальный риск — если сбой почти не повлияет на пользователей.
  • Средний — когда сбой может снизить эффективность работы, привести к убыткам.
  • Высокий риск — случаи, когда проблемы с нейросетями способны вызвать ЧС, серьёзный ущерб для экономики, обороны, безопасности, инфраструктуры или жизни людей.

Любопытно, как документ предлагает категоризировать уровень опасности. Так, в нём говорится, что: 

"Отнесение систем искусственного интеллекта к минимальной, средней либо высокой степени риска осуществляется её собственником и (или) владельцем в соответствии с правилами классификации объектов информатизации".

Системы высокого риска будут включать в список критически важных объектов, которые подлежат особой защите. 

Анализ эмоций, дискриминация, использование уязвимости — что запретят ИИ

Документ вводит табу для искусственного интеллекта.

В Казахстане будет запрещено создавать и запускать те виды искусственного интеллекта, которые:

  • Манипулируют людьми — воздействуют на подсознание и вынуждают принимать решения, способные причинить вред.
  • Используют уязвимость — эксплуатируют возраст, инвалидность или социальное положение человека для создания угрозы или причинения вреда.
  • Оценивают "социальное поведение" — ведут рейтинги граждан или групп по их личным характеристикам.
  • Собирают биометрию из интернета — формируют базы лиц по случайным фото и видео.
  • Дискриминируют — классифицируют людей по расе, религии, политическим взглядам или другим признакам.
  • Считывают эмоции — анализируют настроение человека без его согласия.
  • Следят в реальном времени — распознают лица в общественных местах онлайн (кроме отдельных случаев, прописанных в законе).
  • Создают запрещённый контент, то есть материалы, которые нарушают законодательство Казахстана.

"Системы искусственного интеллекта должны создаваться и эксплуатироваться таким образом, чтобы обеспечивать равенство и справедливость, с признанием достоинства каждого человека, его равной ценности и прав, исключая любую дискриминацию на основе расы, пола, возраста, религии или любых других социальных, культурных и индивидуальных характеристик", — говорится в документе. 

Когда закон слушали в Мажилисе, его депутат Екатерина Смышляева подчеркнула, что при этом сам ИИ не признаётся субъектом права, и ответственность за все решения по-прежнему будут нести те, кто прибегает к его помощи, то есть люди. 

Важно: теперь по закону ИИ всегда должен находиться под контролем владельца. Он отвечает за работу системы и её результаты на всех этапах.

Зачем запрещать ИИ анализировать эмоции?

Когда проект только презентовали в Мажилисе, депутат Екатерина Смышляева сообщила, что ИИ запретят анализировать эмоции людей.

Значит ли это, что с чатом ChatGPT, например, теперь нельзя будет разговаривать как с психологом? Нет.

Но отмечается, что каждый человек, на которого влияют решения ИИ, имеет право знать, как он работает, какие могут быть последствия, как можно отказаться от автоматизированной обработки информации и как защитить свои права.

А вице-министр цифрового развития Дмитрий Мун объяснил, что важно разделять полезное и рискованное считывание эмоций.

В качестве положительного примера анализа чувств он привёл такой: нейросети помогают госорганам понимать настроение обращений граждан, приоритизировать срочные вопросы и улучшать работу власти на местах.

Также он упомянул системы, которые могут анализировать эмоции во вред человека.

— Бывают системы, которые считывают эмоции для того, чтобы манипулировать и делать психологические воздействия. То есть здесь уже тоже нужно будет рассматривать кейсы. 

— Я правильно понимаю, что каким-то определённым сторонним приложениям, где есть нейросеть, в теории запретят анализировать эмоции людей и их настроение, если там есть плохой подтекст? — уточнила корреспондент редакции. 

— Да, такая мысль возникла в том числе из-за различных этических норм, которые сейчас диктует Евросоюз. И да, если это будет восприниматься против общества, против личности, конечно, это неправильно будет делать, — добавил спикер. 

Дипфейки, права потребителей и ИИ

Для борьбы с дипфейками закон вводит обязательную маркировку синтетического (то есть созданного нейросетями) контента "в доступной для человека форме". Если говорить проще: создатели такого фото, видео или текста всегда должны указывать, что они сгенерированы при помощи ИИ.

Справка: Дипфейк — это технология, использующая искусственный интеллект (в частности, нейросети) и позволяющая создавать или изменять изображения, видео и аудио таким образом, что человек (люди, действия) на них выглядит или звучит реалистично, хотя это подделка. Чаще всего в дипфейках меняют лица и голоса. Технология применяется как в развлекательных целях, так и для введения в заблуждение, создания дезинформации, мошенничества. 

К тому же потребителей теперь обязательно нужно предупреждать, что им оказывается услуга или продаётся товар, которые создавались при помощи ИИ.

Авторы смогут запрещать "скармливать" свои произведения чату GPT  

Согласно новому закону, произведения, полностью созданные ИИ без участия человека, не защищены авторским правом.

То есть, если человек не вложил туда своё творчество, то и права на такой контент у него не возникает.

Зато креативные запросы пользователей к тому же чату GPT — например, оригинальные формулировки заданий (так называемые промпты) — могут считаться охраняемыми.

Вообще, чтобы обучать нейросети, им нужно "скармливать" много информации: научные факты, исследования, книги, стихи, песни, изображения, видео и прочее. Так система учится понимать логику человека и формировать свои "нейронные" связи.

Но использование чужого контента неизбежно приводит к проблемам с авторским правом: не все создатели хотят, чтобы их работы обучали нейросети.

В законе об ИИ авторам дадут право запретить использование их контента для обучения того же ChatGPT, рассказал Tengrinews.kz вице-министр цифрового развития Дмитрий Мун.

"Мы вводим понятие "запрет" на то, чтобы произведение, литература автора была передана в ИИ. Если я ставлю на контент условный гриф, тогда его нельзя будет использовать для нейросети. Я объясню: мы создали версии KazLLM (модель искусственного интеллекта для обработки, анализа и генерации текстов на казахском языке — прим. редакции). Обучили её на архивах — всё, что не секретно в части литературы, документов насобирали. И она очень хорошо разговаривает на казахском языке, знает историю Казахстана. Закон предусматривает: чтобы не стопорить возможность обучать машину, но дать автору по собственному желанию ставить запрет", — объяснил он. 

"Использование произведений для обучения модели искусственного интеллекта допускается только в том случае, если автор или правообладатель не наложили запрет в машиночитаемой форме", — добавила депутат Смышляева.

А что если кто-то всё-таки "сольёт" нейросетям охраняемый авторским правом контент?

Тут тонкость — это уже конфликт между гражданами или организациями, объяснил Мун. Автор может подать в суд, если увидит, что используют его произведения. 

"Допустим, я написал сказку про Пиноккио. Вы взяли моё произведение, через GPT написали сказку и назвали её "Буратино". Они очень сильно похожи, и вы начинаете зарабатывать на этом. Не для того, чтобы сдать домашку в универе, а чтобы получать прибыль. Я имею право подать на вас в суд, потому что вы на базе моего произведения начинаете зарабатывать и мне не платите. Это намерение, осознанное желание заработать на труде кого-то без его согласия, будет прописано, и это нельзя", — добавил Мун. 

Когда заработают эти запреты для ИИ?

На старте, то есть сразу после принятия закона, глобальных ограничений не будет. Регулирование внедрят позже через подзаконные акты и нормативные документы.

И, кстати, вице-министр Мун оговаривается, что не следует всё это рассматривать как однозначные и категоричные запреты:

"Я к чему? Можно закон построить так: вот ты можешь условно каждый шаг описать и сказать, если ты так не делаешь, то всё плохо. А можно наоборот — просто сказать: если у тебя были плохие намерения, и они были доказаны, и для этого есть какие-то особые критерии, тогда вот это условно запрещено. А всё остальное можно. Мы пошли по второму подходу. Запрещаем то, что точно плохо. Всё остальное пока  разрешаем и потом будем дорегулировать требованиями, подзаконками. Но принципы основные пишем".

Дмитрий Мун уточнил свою позицию: важно не запрещать всё заранее, а создавать правила игры.

Они заработают после того, как всё примут на всех уровнях, и закон подпишет Президент.

В этой связи интересно, что 18 сентября этого года в Казахстане создали Министерство искусственного интеллекта и цифрового развития. Чем оно займётся, почему его будет курировать целый вице-премьер, зачем стране отдельный орган по ИИ и скажется ли это на жизни простых граждан, читайте в отдельном материале.

Читайте также:

Цифровое одиночество. Почему казахстанские дети растут в экранах

Шевели нейросетями: готовы ли школы Казахстана к эпохе ИИ?
 

Tengrinews
Читайте также
Join Telegram

Курс валют

 504.61  course up  587.93  course up  6.63  course up

 

Погода

location-current
Алматы
А
Алматы 1
Астана -2
Актау 1
Актобе -3
Атырау 3
Б
Балхаш -5
Ж
Жезказган -3
К
Караганда -2
Кокшетау -2
Костанай 0
Кызылорда -11
П
Павлодар -6
Петропавловск -2
С
Семей 2
Т
Талдыкорган 5
Тараз 5
Туркестан -1
У
Уральск -2
Усть-Каменогорск 6
Ш
Шымкент -4

 

Редакция Реклама
Социальные сети