Профильная рабочая группа разработала законопроект «О регулировании систем искусственного интеллекта в России», который предусматривает полный запрет систем ИИ с «неприемлемым уровнем риска». Об сообщает РБК со ссылкой на пять источников, знакомых с инициативой.
Документ подготовлен в рамках реализации Национальной стратегии развития ИИ до 2030 года, утвержденной в феврале прошлого года. В разработке участвовали юристы, представители консалтинговых компаний, разработчики ИИ и депутаты. Законопроект уже обсуждался на заседаниях рабочих групп в Госдуме, в «Деловой России» и на других отраслевых площадках.
Ключевое нововведение – классификация систем искусственного интеллекта по четырем уровням потенциального риска. Системы с неприемлемым уровнем, создающие угрозу безопасности личности, общества и государства, предлагается полностью запретить. Для систем высокого риска, применяемых в здравоохранении, транспорте и финансах, законопроект предусматривает обязательную государственную регистрацию и сертификацию.
«Мы стремимся создать прозрачную систему регулирования, которая защитит граждан и при этом не будет препятствовать инновациям», — отмечается в документе.
Законопроект также вводит понятийный аппарат в сфере искусственного интеллекта, четко определяя термины «искусственный интеллект», «технологии ИИ» и «системы ИИ». Для систем с ограниченным уровнем риска (внутренние системы контроля качества) предусмотрена добровольная сертификация, а системы минимального риска не требуют дополнительного регулирования.
Особое внимание уделено вопросам ответственности. Разработчики и операторы систем ИИ будут нести ответственность за причинение вреда жизни, здоровью или имуществу. При этом законопроект предусматривает исключения: разработчик освобождается от ответственности, если принял все необходимые меры для предотвращения вреда, а оператор – если докажет, что вред возник по вине разработчика или из-за нарушения пользователем правил эксплуатации.
Для операторов систем ИИ с высоким уровнем риска вводится обязательное страхование ответственности. В случае принятия закона операторы и разработчики должны будут выполнить его требования в течение года после вступления в силу. Системы ИИ с высоким уровнем риска, созданные до принятия документа, получат двухлетний срок для прохождения обязательной сертификации.
Несмотря на активную работу над законопроектом, зампред Комитета Госдумы по информационной политике Андрей Свинцов отметил, что законодательные инициативы в сфере ИИ пока «всерьез не рассматриваются» депутатами. «Рабочая группа создана для тщательной проработки и детального изучения запросов от различных отраслей», — заявил Свинцов в разговоре с РБК.