Речь идет о законопроекте, который закладывает основы государственного контроля за применением искусственного интеллекта. Правила затронут организации и граждан, но не будут распространяться на органы государственной безопасности.
Авторы инициативы считают, что маркировать контент, созданный алгоритмами, нужно лишь тогда, когда он может ввести пользователя в заблуждение или затрагивает важные темы. Вместо видимых значков разрешат использовать машиночитаемые метки, конкретные параметры установит кабмин. Применять «доверенные модели» потребуется только при обработке чувствительной информации, принятии самостоятельных решений или выполнении функций социального значения. Требование уведомлять пользователей об использовании алгоритмов станет мягче: информирование понадобится лишь в ситуациях, которые дополнительно определит правительство.
Критерии для «суверенных» и «национальных» моделей тоже изменятся. Так, главным условием станет наличие российского юрлица-разработчика и его контроль над продуктом, а не место создания кода. Отдельно предложено разрешить обучение отечественных систем на данных государства, порядок доступа к которым также утвердит кабмин. Полномочия по назначению органов, регулирующих применение ИИ в разных отраслях экономики, закрепят за правительством.
Сохранятся ключевые механизмы защиты прав граждан. Останется возможность досудебного обжалования решений госорганов, принятых с помощью алгоритмов, а также право на возмещение ущерба. Продолжит действовать подход, учитывающий уровень рисков. Разработчикам по-прежнему нужно будет исключать дискриминационные алгоритмы, а операторам — проверять системы на безопасность. Ответственность между участниками процесса распределят соразмерно степени вины.
Ожидается, что положения начнут действовать с 1 сентября 2027 года.
Вы можете оставить первый комментарий