Новая эра регулирования ИИ в России: анализ законопроекта «Об основах государственного регулирования сфер применения технологий
Правительством РФ внесен на обсуждение законопроект, который должен вступить в силу 1 сентября 2027 года как базовый акт в сфере оборота и использования искусственного интеллекта (ИИ) в России.
На данный момент ФЗ «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации» прошел этап публичного обсуждения, в связи с чем считаем необходимым рассмотреть основные его положения:
Сфера регулирования
Действие закона распространяется на физических и юридических лиц, осуществляющих деятельность в области разработки, применения, внедрения технологий ИИ на территории РФ (в том числе на обычных пользователей), но не регулирует отношения в сфере обороны, безопасности государства, охраны правопорядка и предупреждения ЧС. Это исключение оставляет за государством право на использование «силового» ИИ в закрытом режиме.
Понятийный аппарат
Закон дает определение таким понятием как:
• искусственный интеллект - комплекс технологических решений, позволяющий имитировать когнитивные функции человека... и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их...;
• сервис ИИ — технологические решение для ЭВМ, которое предоставляет пользователям через доступ к возможностям технологий ИИ для выполнения прикладных задач;
• разработчик модели ИИ — ФЛ или ЮЛ, осуществляющие исследования, проектирование, разработку, обучение, тестирование или модификацию, модели ИИ;
• оператор системы ИИ — гражданин или ЮЛ, эксплуатирующее систему ИИ, в том числе обрабатывающее информацию, содержащуюся в ее базах данных;
• владелец сервиса ИИ — лицо, обладающее правами на сервис ИИ, включая исключительные или иные права на такую систему;
• пользователь — лицо, использующее сервис ИИ;
и так далее.
При этом именно разработчик модели ИИ, оператор системы ИИ, владелец сервиса ИИ, пользователь сервиса ИИ и органы государственной власти признаются субъектами отношений в сфере ИИ, а из обязанности перечислены в ст. 10 Законопроекта.
Разделение этих статусов позволит судам и регуляторам точнее определять виновное лицо при наступлении вреда, причиненного во время осуществления деятельности с ИИ.
Однако в ст. 11 предлагается довольно сложная конструкция вины, где ключевым фактором выступает знание или обязанность знать о возможности получения неправомерного результата.
Основные принципы регулирования отношений в сфере ИИ:
• верховенство прав, свобод и законных интересов человека и гражданина;
• уважение автономии и свободы воли человека;
• риск-ориентированный подход;
• обеспечение благоприятных условий для развития технологий ИИ;
• технологическая независимость;
• учет и уважение традиционных российских духовно-нравственных ценностей;
• безопасность.
«Доверенные модели» и технологический суверенитет
Одним из главных нововведений (ст. 8) является создание института «доверенных моделей ИИ». Для работы в государственных информационных системах и на объектах критической информационной инфраструктуры (КИИ) будут допускаться только модели, включенные в специальный реестр.
Условия включения в реестр (доверенные модели):
1. Соответствие требованиям безопасности со стороны ФСТЭК и ФСБ.
2. Обработка данных исключительно на территории РФ.
3. Подтверждение соответствия требованиям качества отраслевых регуляторов.
Кроме того, вводятся понятия «суверенных» и «национальных» моделей, которые должны разрабатываться и обучаться на территории РФ исключительно российскими лицами (с контролем >50% голосов). Это создает правовой барьер для использования западных моделей (например, ChatGPT, Claude) в значимых государственных и инфраструктурных проектах.
Ответственность и риски — согласно ст. 11 Законопроекта
• Презумпция осведомленности: разработчик, оператор и владелец несут ответственность, если «заведомо знали или должны были знать» о возможности получения противоправного результата — это сдвигает бремя доказывания в сторону защиты, обязывая субъектов доказывать принятие исчерпывающих мер;
• Регресс: оператор, возместивший вред, вправе требовать регресс с разработчика, если докажет, что вред возник из-за недостатков модели, которые невозможно было выявить при разумной осмотрительности;
• Ответственность пользователя: пользователь отвечает за использование результата ИИ, если нарушил условия сервиса или действовал умышленно.
Особого внимания заслуживает введение запрета на «эксплуатацию уязвимостей человека» (ст. 3). Это понятие включает использование возрастных, психологических и иных особенностей для воздействия на поведение. Ожидается, что это станет основанием для блокировки сервисов, манипулирующих пользователями (например, «темные паттерны» в дизайне или аддиктивные алгоритмы рекомендаций).
Маркировка контента и дипфейки
• Владельцы сервисов обязаны маркировать контент, созданный с помощью ИИ (синтезированный аудио/визуальный материал);
• Предусмотрена обязанность крупных площадок (суточная аудитория > 100 тыс. пользователей) проверять наличие маркировки и удалять контент без нее.
При этом допускается отказ от воспринимаемой человеком маркировки по договору с пользователем, но такой отказ должен быть «предметным, информированным, сознательным и однозначным» (ст. 12). Это требование, скорее всего, приведет к усложнению интерфейсов и появлению новых стандартов пользовательских соглашений.
Интеллектуальная собственность
Законопроект вносит ясность в вопрос охраноспособности результатов, созданных ИИ:
• Согласно ст. 13 Законопроекта объектами интеллектуальной деятельности всё ещё признаются исключительно оригинальные творения, соответствующие критериям охраноспособности, установленным гражданским законодательством, независимо от того, были ли они созданы человеком или автоматизированной системой.
• При этом права на «синтезированный, сгенерированный информационный материал» могут принадлежать кому угодно, но условие об этом обязательно должен включить в пользовательское соглашение владелец сервиса ИИ.
• Вводится легальное исключение из авторского права: извлечение информации из объектов для формирования наборов данных и обучения ИИ не является нарушением, если у разработчика есть правомерный экземпляр произведения или оно доведено до всеобщего сведения (ст. 13.5). Это легализует интеллектуальный анализ данных для обучения нейросетей, что ранее вызывало споры.
Специальное регулирование для ЦОД (Центров обработки данных)
Для обеспечения вычислительной инфраструктуры (ст. 20) предлагаются беспрецедентные меры поддержки центров обработки данных, включенных в перечень Правительства РФ:
• Освобождение от платы за техприсоединение к электросетям (в части мощности).
• Льготные тарифы на электроэнергию (ниже рыночных).
• Приоритетное выделение мощностей от генерирующих объектов с госсобственностью.
• Возможность долгосрочных договоров на электроэнергию.
Это делает инвестиции в строительство ЦОД для ИИ экономически привлекательными и стратегически защищенными.
В целом представленный законопроект представляет собой компромисс между инновационным развитием и государственным контролем.
С одной стороны, он легализует критически важные для индустрии процессы (обучение на открытых данных, оборот результатов ИИ), вводит понятные статусы субъектов и мощные меры поддержки инфраструктуры.
С другой стороны, он создает жесткие барьеры в виде института «доверенных моделей» для госсектора, строгие требования по локализации данных и маркировке контента, а также вводит повышенные стандарты «разумной осмотрительности» для разработчиков и операторов.
Продолжаем следить за изменениями вместе с вами!
Последние комментарии