Россия, как и многие другие страны, активно внедряет искусственный интеллект (ИИ) в различные сферы жизни: бизнес, госуправление, социальные сервисы. Интерес к ИИ продолжает стремительно расти. В 2026 году появилось сразу несколько законодательных инициатив в этой отрасли, некоторые из которых еще продолжают активно обсуждаться. В статье расскажем о планируемых изменениях и как они повлияют на налоги, учет и работу бухгалтера.
Над статьей работали:
Автор: Бабаева Ирина; редактор: Чапис Елена
Содержание
- Что изменилось: законопроект об ИИ в первом чтении
- Ответственность за ИИ: новые риски для бизнеса
- Как ФНС будет использовать ИИ в 2026 году
- Налоговые льготы и учет затрат на ИИ
- Как подготовить бухгалтерию к внедрению ИИ: адаптация учетной политики, системы проверки данных
- Первые судебные споры о применении ИИ
«Новшества законодательства: все, что нужно знать бухгалтеру, юристу и кадровику»
Бесплатный электронный сборник документов содержит важные изменения законодательства, которые влияют на работу компаний и подчеркивают необходимость постоянного мониторинга правовых новаций и своевременного приведения внутренних процессов в соответствие с новыми требованиями.
Нажимая на кнопку, вы даете свое согласие на обработку персональных данных и соглашаетесь с политикой обработки персональных данных
Что изменилось: законопроект об ИИ в первом чтении
В 2026 году в России формируется правовое регулирование ИИ. Минцифры РФ разработало законопроект «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации» (ID проекта на федеральном портале проектов нормативных правовых актов — 166424).
До настоящего момента рынок ИИ в России развивался в условиях правовой неопределенности. Отсутствие четких определений, обязанностей участников и механизмов ответственности, по мнению авторов документа, тормозило развитие технологий и создавало риски для граждан. Принятие закона призвано решить две ключевые задачи: защитить права и свободы людей от возможных негативных последствий работы алгоритмов, а также дать импульс отечественным разработчикам, обеспечив технологический суверенитет страны.
Законопроект был вынесен на публичное обсуждение 18 марта 2026 года. Документ носит рамочный характер. Это значит, что он устанавливает общие принципы, а детали будут прописаны в подзаконных актах и отраслевых законах.
Планируется, что закон вступит в силу 1 сентября 2027 года.
Законопроект вводит в правовое поле термины: «искусственный интеллект», «модель ИИ», «сервис ИИ», а также определяет статусы участников рынка — разработчиков, операторов и владельцев сервисов .
Главным нововведением становится классификация моделей ИИ в зависимости от их происхождения и уровня доверия к ним:
- Суверенные и национальные модели. Это системы, полностью созданные в России. Все этапы — от разработки до обучения — должны проходить на территории страны с использованием данных из российских источников. Такие модели смогут рассчитывать на максимальную государственную поддержку.
- Доверенные модели. Особый статус для использования в государственных информационных системах и на объектах критической информационной инфраструктуры (КИИ). Чтобы получить этот статус, модель должна пройти проверку безопасности, а также подтвердить качество работы. Такие модели будут включены в специальный реестр.
Законопроект уделяет особое внимание защите прав человека. Если использование нейросетей причинило вред здоровью или имуществу человека, пострадавший получит право на компенсацию вреда.
Для компаний и разработчиков закон устанавливает четкие обязанности, которые можно разделить на несколько блоков:
- Этический контроль. Разработчики обязаны исключать из моделей функции, которые могут привести к дискриминации пользователей (по расовому, половому, возрастному или иному признаку). Также запрещено использовать ИИ для манипулирования поведением людей, например, для навязывания ненужных товаров.
- Маркировка синтезированного контента. Все фото, видео, аудио и тексты, созданные с помощью нейросетей, должны иметь обязательную маркировку. Крупные онлайн-платформы (с аудиторией более 100 тыс. человек в сутки) будут обязаны проверять наличие такой маркировки и либо наносить ее самостоятельно, либо удалять непромаркированный контент.
- Ответственность за искусственный интеллект. Законопроект вводит принцип распределения ответственности. За результат работы нейросети будут отвечать разработчик, оператор и владелец сервиса «соразмерно степени вины». Ответственность наступает, если участник рынка знал о возможных рисках, но не предпринял меры для их предотвращения.
Отдельный блок посвящен международному сотрудничеству и работе зарубежных сервисов. Закон вводит понятие «трансграничные технологии ИИ». Власти получат право ограничивать или полностью запрещать работу таких технологий на территории России, если они не соответствуют требованиям законодательства.
Также на стадии рассмотрения находится еще несколько законодательных инициатив. Например, законопроект № 1069302-8 «О внесении изменений в Федеральный закон «Об информации, информационных технологиях и о защите информации», предусматривающий обязательную маркировку материала, созданного с ИИ.
Законопроекты о возможности использования ИИ в предвыборной кампании и подготовке агитационных материалов (№ 993193-8 и 467977-8).
Указанные законопроекты уже внесены в Госдуму РФ и проходят подготовку к первому чтению.
Ответственность за ИИ: новые риски для бизнеса
На сегодняшний день специального правового регулирования ответственности за вред, причиненный ИИ, в России не существует. При разрешении споров суды руководствуются общими нормами гражданского законодательства. Прежде всего это статья 1064 ГК РФ, согласно которой вред, причиненный личности или имуществу, подлежит возмещению причинившим его лицом.
В случае с автономными ИИ-системами причинителем вреда выступает техническая система, не обладающая правосубъектностью. Идентифицировать конкретного виновного человека зачастую крайне сложно, особенно когда речь идет о самообучающихся моделях, поведение которых не было напрямую запрограммировано разработчиками.
Что изменит законопроект об ИИ.
Разработанный Минцифры России законопроект впервые вводит четкие правила распределения ответственности. Так, за противоправный результат отвечают разработчик, оператор системы, владелец сервиса и пользователь соразмерно степени вины. Разработчик и оператор считаются виновными, если в ходе следствия не будет доказано обратное (презумпция виновности).
Если использование ИИ причинило вред здоровью или имуществу, пострадавший получает право на компенсацию в порядке гражданского законодательства. Законопроект допускает обжалование решений, принятых ИИ.
Законопроект предлагает риск-ориентированный подход: требования к системе зависят от степени ее влияния на жизнь человека и общество. При этом разработчики и операторы освобождаются от ответственности, если докажут, что предприняли исчерпывающие меры для предотвращения нарушения. Однако само понятие исчерпывающих мер в законе не раскрыто. Представители ФНС России утверждают, что уже сегодня используют такой подход в работе. Риск-ориентированный подход ФНС означает, что сначала будут проверять налогоплательщиков, чья деятельность показывает серьезные отклонения.
Как ФНС будет использовать ИИ в 2026 году
В 2026 году ФНС России переходит от цифровизации к полноценному интеллектуальному налоговому администрированию. ИИ уже активно используется ФНС и в ближайшие годы станет ключевым инструментом:
- для анализа данных;
- управления рисками;
- взаимодействия с налогоплательщиками.
Для бизнеса это означает необходимость адаптации к новой среде: повышения прозрачности учета, внедрения собственных аналитических инструментов и выстраивания систем внутреннего контроля, сопоставимых по уровню с используемыми государством технологиями.
В 2025 году ФНС вместе со Сбербанком заключили соглашение о технологическом сотрудничестве. В рамках сотрудничества стороны планируют совершенствовать качество услуг, оказываемых гражданам и бизнесу, в том числе на базе ИИ.
С первого января 2026 года вступил в силу Федеральный закон от 23.07.2025 № 254-ФЗ, предусматривающий новые полномочия ФНС в 2026 году. В законе введено понятие «официальная оценка состояния компании» — анализ финансово-хозяйственной деятельности юридического лица или ИП, проводимый налоговой службой.
Оценка включает проверку соответствия бухотчетности, налоговых деклараций и иных данных критериям, установленным методиками ФНС. Результаты оформляют в виде официальной выписки, доступной по запросу налогоплательщика.
Главное технологическое новшество, обеспечивающее реализацию этих полномочий, — налоговый мониторинг бизнеса с внедрением искусственного интеллекта.
Налоговые льготы и учет затрат на ИИ
В последние годы в России сформировался отдельный налоговый механизм стимулирования внедрения технологий ИИ. Он направлен на снижение налоговой нагрузки компаний, инвестирующих в цифровые решения.
Ключевая особенность, предусмотренная НК РФ, — возможность применения повышающих коэффициентов, позволяющих учитывать расходы в большем размере и ускоренная амортизация ПО.
С 2023 года для стимулирования внедрения ИИ введена льгота: расходы можно было учитывать с коэффициентом 1,5 (ст. 257 НК РФ в редакции закона № 323-ФЗ)
Это означает, что при затратах, например, 1 млн рублей в налоговых расходах можно было учесть 1,5 млн рублей. Тем самым уменьшалась налоговая база по налогу на прибыль.
В рамках налоговой реформы льготный механизм был существенно расширен, коэффициент увеличен до 2 (закон № 176-ФЗ). Это означает фактически двойное списание расходов при расчете налога на прибыль.
Условие применения льготы:
— программное обеспечение или оборудование должно относиться к сфере ИИ, быть включено в перечень российского высокотехнологичного оборудования (Распоряжение Правительства РФ от 20.07.2023 № 1937-р).
Минфин РФ в письме от 05.12.2024 № 03-03-06/1/122830 разъяснил порядок применения коэффициентов. Если расходы на ИИ понесены до 2025 года, применяется коэффициент 1,5. Если расходы понесены с 2025 года — применяется коэффициент 2.
Как учитывать расходы на ИИ в налоговом учете.
Практика учета зависит от вида затрат:
- Приобретение лицензий на ИИ
Если компания покупает право использования:
- расходы относятся к прочим;
- учитываются равномерно в течение срока лицензии;
- применяется коэффициент.
- Создание собственного ИИ (разработка)
Если компания разрабатывает ИИ:
- формируется нематериальный актив;
- расходы капитализируются;
- списываются через амортизацию;
- к первоначальной стоимости может применяться повышающий коэффициент.
- Покупка ИИ как основного средства.
Если речь о программно-аппаратном комплексе:
- учитывается как основное средство;
- применяется амортизация;
- возможен повышающий коэффициент при формировании стоимости.
Как подготовить бухгалтерию к внедрению ИИ: адаптация учетной политики, системы проверки данных
Внедрение технологий генеративного ИИ в бухгалтерскую функцию требует предварительной организационной и методологической подготовки. Без корректной адаптации использование ИИ может привести не к повышению эффективности, а к росту ошибок и рисков.
Первым этапом является пересмотр учетной политики организации с учетом автоматизации и применения ИИ. В учетной политике необходимо:
- зафиксировать использование ИИ-инструментов при обработке первичных документов, классификации операций и формировании отчетности;
- определить зоны ответственности: какие решения принимаются автоматически, а какие требуют подтверждения специалиста;
- установить правила документирования операций, сформированных с участием ИИ;
- закрепить порядок исправления ошибок, допущенных автоматизированными системами.
Особое внимание следует уделить принципу проверяемости. Любые данные, сформированные ИИ, должны быть воспроизводимы и подтверждаемы при проверках.
ИИ способен обрабатывать большие массивы информации, однако качество результатов напрямую зависит от исходных данных. Поэтому необходимо выстроить многоуровневую систему контроля, создать контрольные правила для ИИ-ассистента.
- Контроль на этапе ввода данных:
— стандартизация форм первичных документов;
— автоматизация реквизитов (ИНН, суммы, даты);
— исключение дублирования.
- Логический и аналитический контроль:
— настройка правил проверки (например, соответствие ставок налогов, корректность корреспонденции счетов);
— выявление отклонений от типовых операций;
— сопоставление данных разных регистров.
- Человеческий контроль
Даже при внедрении ИИ сохраняется необходимость участия специалиста:
— выборочная проверка операций;
— подтверждение нетиповых или рискованных транзакций;
— анализ спорных ситуаций.
Внедрение ИИ требует трансформации роли бухгалтерии. Поэтому потребуется проведение систематического обучения персонала работе с ИИ-инструментами.
При правильной подготовке бухгалтерии внедрение ИИ позволяет:
— сократить трудозатраты;
— повысить скорость обработки данных (автоматическая сверка, автоматический расчет зарплаты);
— снизить количество технических ошибок;
— усилить аналитическую функцию бухгалтерии.
Первые судебные споры о применении ИИ
Судебная практика по вопросам ИИ в России находится в стадии активного формирования и пока не отличается единообразием. Уже сегодня можно говорить о складывающихся подходах судов к ключевым правовым вопросам. Рассмотрим несколько примеров.
Решение Арбитражного суда города Санкт-Петербурга и Ленинградской области от 04.02.2025 по делу № А56-102880/2024.
Истец обратился в суд с требованием признать недействительным договор оказания консультационных услуг, заключенный с ИП (ответчик). Истец утверждал, что ответчик ввел его в заблуждение относительно своей компетенции и профессионализма. Услуга по изготовлению стратегии развития была оказана с использованием нейросети. Поэтому истец считает ее оказанной ненадлежащим образом. Суд принял сторону ответчика и в решении указал на отсутствие оснований в признании сделки недействительной. Таким образом, можно сделать вывод, что стороны договора свободны в выборе способов его исполнения, если иное прямо не предусмотрено в его положениях.
Определение Арбитражного суда Кемеровской области от 25.02.2025 по делу № А27-13208/2024
Арбитражный суд Кемеровской области обозначил новый вектор судебной практики. В рамках спора о защите деловой репутации, вызванного публикацией видеоролика на видеохостинге, суд предложил ответчику рассмотреть вопрос о назначении видеотехнической экспертизы. При этом в качестве одной из задач экспертизы было прямо указано установление факта создания видеоролика при помощи нейросети. Этот прецедент демонстрирует, что суды начинают рассматривать ИИ-контент как объект доказывания.
Вы можете оставить первый комментарий