В обновленной версии законопроекта, касающегося регуляции искусственного интеллекта (ИИ), была предусмотрена возможность обучения как национальных, так и суверенных моделей на основе государственных данных, однако это возможно лишь после получения одобрения от ФСТЭК и ФСБ России.
Документ устанавливает ответственность владельцев и операторов ИИ за обеспечение безопасности информации. Как сообщает “Ъ”, в Минцифры заявили, что в настоящее время законопроект дорабатывается с учетом мнения отрасли и заинтересованных учреждений.
В соответствии с новой редакцией, статус доверенной ИИ-модели будет присваиваться исключительно после записи в специальный реестр, порядок ведения которого будет определен правительством РФ. Кроме того, кабинет министров сможет устанавливать случаи обязательного использования суверенных и национальных ИИ в банковском секторе после согласования с Центробанком. Ранее требование о регистрации касалось только моделей, задействованных в объектах критической информационной инфраструктуры (КИИ) и государственных информационных системах.
Представители отрасли выражают беспокойство, что ужесточение доступа к данным для обучения может создать дополнительные трудности для разработчиков. Ассоциация больших данных подчеркивает, что регулирование не должно приводить к созданию новых барьеров, особенно при получении данных. Более того, эксперты указывают, что дополнительные требования могут замедлить темпы разработки и внедрения новых технологий, что в итоге скажется на конкурентоспособности отечественных ИТ-компаний.
Также стоит отметить, что аналогичные меры уже были приняты в других странах, где разработка ИИ регулируется в соответствии с законами о защите данных и национальной безопасности. Это создает общие глобальные стандарты, к которым стремятся многие государства, но в то же время может привести к неравным условиям для отечественных разработчиков по сравнению с международными компаниями.
