Законопроект раскрывает значения ключевых понятий. Суверенная и национальная модели искусственного интеллекта — это системы, которые разрабатывают и обучают им на территории России. Все этапы создания и применения выполняют граждане РФ и отечественные юридические лица. Обучение проводят с использованием наборов данных, сформированных в России.
Доверенная модель — это система, в том числе суверенная или национальная большая фундаментальная, которая прошла проверку на безопасность. Подтверждение выдают уполномоченные органы в сфере технической защиты информации и обеспечения безопасности. Обработка данных при использовании такой модели происходит исключительно в пределах России. Также требуется подтверждение соответствия требованиям качества, которые устанавливают федеральные ведомства, госкорпорации или Банк России для конкретных отраслей.
Подход к регулированию строится на оценке рисков. Требования к системам зависят от того, как сильно они влияют на жизнь людей и общество. Создателей моделей обяжут исключать дискриминационные алгоритмы и блокировать генерацию запрещенного контента на стадии проектирования. Операторы должны будут проверять системы на безопасность.
Механизм досудебного обжалования решений госорганов, принятых с помощью ИИ, получит законодательное закрепление. Пострадавшие смогут требовать возмещения ущерба. Ответственность за противоправный результат распределят между разработчиком, оператором, владельцем сервиса и пользователем пропорционально степени вины, их права и обязанности также закреплены. Эти правила не будет распространяться на силовые структуры.
Есть и другие нововведения. Если закон примут, он вступит в силу с 1 сентября 2027 года.
Вы можете оставить первый комментарий