Митько А.В. Президент Арктической общественной академии наук, доцент ВНИИМ имени Д.И. Менделеева, доцент СПбГУ, кандидат технических наук, доцент

Вступление документа в силу намечено на сентябрь 2027 года. Он формирует новые обязанности для бизнеса

Бизнесу в России стоит уже сейчас подготовиться к новому закону об ИИ, который вводит строгие правила регулирования технологий искусственного интеллекта с акцентом на суверенитет и риски.

Развитие перспективных технологий, в том числе искусственного интеллекта (ИИ), является важным направлением работы Минцифры, пишет ведомство на своем сайте. При этом любая технология должна применяться исключительно с соблюдением прав и интересов граждан. Для этого министерство разработало проект федерального закона о регулировании ИИ. Подробнее об основных положениях документа.

Риск-ориентированный подход и уровни моделей ИИ

Законопроект предусматривает риск-ориентированный подход к регулированию ИИ. То есть требования к системам ИИ зависят от степени их влияния на жизнь человека и общество.

Предлагается также ввести понятия суверенной, национальной и доверенной моделей искусственного интеллекта.

Защита прав граждан

Граждане смогут оспаривать решения госорганов и госкомпаний, принятые с использованием ИИ, в досудебном порядке. Если использование ИИ причинило вред, человек получит право на компенсацию — по общим правилам гражданского законодательства. Эти меры призваны защитить права граждан при автоматизированном принятии решений.

Ответственность и безопасность

Разработчики моделей ИИ обязаны исключать дискриминационные алгоритмы и блокировать создание противоправного контента. Операторы систем ИИ должны тестировать их на безопасность и информировать пользователей об ограничениях. Владельцы сервисов будут оперативно принимать меры по недопущению его неправомерного использования.

Ответственность за противоправный результат распределяется между разработчиком, оператором системы, владельцем сервиса и пользователем соразмерно степени вины.

Маркировка синтезированного контента

Все созданные с помощью ИИ аудиовизуальные материалы должны содержать специальную маркировку — предупреждение. Крупные соцсети обязаны проверять её наличие, а при её отсутствии самостоятельно маркировать или удалять контент.

Планируется, что документ вступит в силу с 1 сентября 2027 года, установив чёткие правила для разработчиков, бизнеса и государства. Он позволит защитить граждан от скрытых манипуляций и дискриминационных алгоритмов».

Что советуют специалисты по ИИ

Этот законопроект напрямую касается ИИ- разработчиков, которые создают сервисы на базе американских нейросетей или любых других по созданию текста/музыки/видео /озвучивания.

Также касается всех, кто применяет ИИ в своем бизнесе, автоматизирует процесс.

Оцените текущие ИИ-проекты

Проведите аудит всех систем ИИ: классифицируйте их по уровням риски (невысокий, высокий, недопустимый). Для высокорисковых (например, в медицине, финансах, автопилотах) подготовьте документацию о безопасности, тестах и маркировке контента. Закон требует, чтобы нейросети обучались на российских данных и размещались на «допустимых» платформах.

Обеспечьте суверенитет ИИ

Перейдите на «суверенные» модели: модели ИИ должны создаваться и обучаться в России, без зависимости от иностранных серверов. Начните миграцию данных и моделей на отечественную инфраструктуру (Яндекс, Сбер, VK), чтобы избежать запретов с сентября 2027 года.

Внедрите маркировку и ответственность

Обязательно маркируйте весь ИИ-генерируемый контент (deepfakes, тексты, изображения) водяными знаками или метаданными.

Назначьте ответственных: у операторов ИИ должен быть специалист по compliance, а у сервисов — реестр моделей.

Подготовьте политики для инцидентов: отчетность о сбоях в Роскомнадзоре.

Что делать прямо сейчас

1 Аудит ИИ-систем: 1-2 месяца

2 Тестирование на риски: до конца 2026

3 Миграция на РФ-инфраструктуру: к июню 2027

4 Обучение команды: немедленно

 

Это позволит избежать штрафов (до 1% выручки) и блокировок. Закон фокусируется на защите данных и этике, так что инвестируйте в локальные ИИ-решения заранее.