Что касается развития, в законе есть четкий месседж: государство собирается серьезно инвестировать в разработки в сфере ИИ. Депутат Екатерина Смышляева, которая презентовала этот законопроект в парламенте, вообще сравнила их с космосом:

Но в целом законопроект выглядит как правила игры по безопасному использованию ИИ. Например, все системы будут делить по уровню риска. Системами высокого риска станут считать те, что имеют отношение к жизни и здоровью, госуправлению и принятию решений. Их вместе с системами среднего риска собираются серьезно регулировать с помощью закона. А вот системам низкого риска позволят развиваться в рынке.
- Человек должен всегда иметь возможность отказаться от помощи машины, — говорит Екатерина Смышляева, — я вам пример приведу: автоматизированное решение в системе госзакупок по закону не оспаривают, можно оспорить только комиссионное решение. Но это нарушение конституционных прав человека. Потому что всегда за человеком должно оставаться право, чтобы решение в отношении его было принято и пересмотрено человеком. Если только мы допустим вариант, когда человек может не участвовать, это путь в самое фантастическое будущее. Потому и нужна маркировка продуктов с использованием ИИ. Я понимаю, что администрировать мы эту маркировку не сможем. Кто-то будет применять и не станет об этом предупреждать. Но культуру использования ИИ мы должны внедрять.Еще одна классификация систем ИИ, которую предлагает законопроект: по уровню их автономности. Есть, например, полностью зависимые от человека технологии, есть полуавтономные. А вот полностью автономные пока вряд ли существуют. Но авторы казахстанского законопроекта в качестве задела на будущее такие системы классифицировали и... запретили!
- Да, мы понимаем, что технологии развиваются в этом направлении, поэтому для нас важно обеспечить безопасность в отношении таких полностью автономных систем, — объясняет Смышляева, — пока у нас полный запрет. Но мы осознаем, что этот запрет не сможет долго работать и тем более администрироваться. Возможно, в ходе обсуждения мы придем к тому, чтобы ввести для них жесткие ограничения. Как, например, с реализацией оружия. То есть должна быть солидарная ответственность как разработчиков этих технологий, так и тех, кто будет их использовать, чтобы вовремя прекратить ее действие. Хотя тот факт, что мы сможем это прекратить, уже говорит о том, что система неавтономная... Когда мы начинали обсуждение законопроекта с экспертами отрасли, первая реакция от них была: опять запреты! Но на самом деле запрет только один, на автономные системы. Их у нас не будет.
Бахыт Нуржанова, фото parlam.kz и изображение, сгенерированное нейросетью