В том виде, каком законопроект был направлен на первое чтение депутатам парламента, он регулирует авторское право очень размыто и только лишь отсылочными нормами. Но работа над текстом идет, и сейчас уже сформулирована позиция, которая, видимо, и останется в заключительной редакции: автором произведения, созданного с использованием искусственного интеллекта в казахстанской юрисдикции будет считаться владелец алгоритма ИИ.

Не разрешена и еще одна проблема – как быть с тем, что ИИ для обучения собирает все подряд данные, в том числе и авторские. А стало быть эти авторские произведения затем используются для создания других. Один из самых логичных способов защитить свое детище от посягательства ИИ, как считают разработчики закона, это поставить на него машиночитаемую метку о том, что автор против того, чтобы алгоритм его использовал. Но пока непонятно, возможно ли это технически – этот вопрос сейчас только изучают. И если нет, то проблема защиты уже охраняемых авторским правом объектов, новым законом не решится.
Зато законопроект, по заявлению депутатов и представителей Минцифры, решает много других важных задач. В первую очередь, создает условия для развития технологии ИИ в Казахстане. Так, создается Национальная платформа искусственного интеллекта – единая инфраструктура для разработки и использования продуктов с ИИ. Но самое главное, государство, как самый крупный держатель информации, на этой платформе сформирует и обеспечит доступ к огромным библиотекам данным компаниям-разработчикам для обучения их моделей ИИ.
В связи с этим многие сейчас очень обеспокоены обеспечением безопасности при использовании искусственного интеллекта. Сильно ограничивать, как это сделали в Европе, тоже нельзя: оттуда стали массово уходит крупные компании-разработчики. А у Казахстана цель прямо противоположная – привлечь инвесторов и развить отрасль. Но запретительные нормы в законе все-таки есть.Полностью автономные системы ИИ будут запрещены на территории страны несмотря на то, что именно в направлении все большей автономности сейчас движется развитие технологии. А еще запрещаются некоторые практики использования искусственного интеллекта.
Например, нельзя использовать ИИ для распознавания лиц в общественных местах в режиме реального времени, для анализа эмоций людей без их согласия. Нельзя использовать ИИ, если он влияет на поведение людей без их осознанного согласия или если он намеренно пользуется уязвимостями людей, связанными с возрастом, инвалидностью, социальным положением. Запрещен также и социальный скоринг: оценка или классификация людей по их социальному поведению.Кстати, ответственность за причинение ущерба пользователям несут именно владельцы и операторы систем ИИ. При этом в рамках данного законопроекта вводятся изменения только лишь в административный кодекс. Между тем, технологии искусственного интеллекта делают мошенничество все большее изощренным.
- Да, сегодня поступили предложения от коллег, чтобы усилить и уголовную ответственность, — говорит Екатерина Смышляева, — но там два варианта всего. В статье 190 УК РК о мошенничестве уже есть как отягчающее обстоятельство использование информационных технологий при обмане людей. Но ИИ это несколько иная технология, она более токсичная. Поэтому, как вариант, можно внести уточнение. Можно дополнить новым составом, но тогда он должен быть детализирован именно до дипфейка. Мы сейчас это рассматриваем. Но вообще, в действующем законодательстве уже есть ответственность за незаконное использование персональных данных. А дипфейк создается именно на основе таких данных.
Бахыт Нуржанова, фото parlam.kz и изображение, сгенерированное ИИ