Герб Свердловской области Проект реализуется при поддержке Губернатора и Правительства Свердловской области
Роботизация и ИИ

Европа закручивает гайки в ИИ: подтянутся ли США, Азия — и что делает Россия

Со 2 августа 2025 года в ЕС начали применяться правила к моделям общего назначения (GPAI) и заработала новая архитектура управления — это фактический старт «жёсткой» фазы AI Act. Сентябрь — первый месяц, когда компании живут по этим требованиям на практике. 

Обложка

Со 2 августа 2025 года в ЕС начали применяться правила к моделям общего назначения (GPAI) и заработала новая архитектура управления — это фактический старт «жёсткой» фазы AI Act. Сентябрь — первый месяц, когда компании живут по этим требованиям на практике. 

Что именно меняется в Европе

AI Act ввели поэтапно: часть запретов и обязательств по «AI-грамотности» действует с февраля 2025-го, правила для GPAI и надзорной архитектуры — с 2 августа 2025-го; остальное будет докручиваться до 2026–2027 годов. На кону — прозрачность данных и ограничений моделей, способность проходить аудит и быстро устранять риски. Параллельно Еврокомиссия готовит «кодекс практики» для GPAI — бизнес ждал его раньше, но теперь ориентир скорее «к концу 2025-го». В любом случае курс ясен: ориентир на проверяемую безопасность и управляемость. 

Глобальный контур: ООН пытается синхронизировать правила

26 августа 2025 года Генассамблея ООН приняла резолюцию о создании научной панели по ИИ и продолжении глобального диалога по управлению. Это попытка договориться о базовых процедурах (от отчётности до протоколов «стоп-кнопки») хотя бы на межгосударственном уровне. Но получится ли свести разные модели регулирования — открытый вопрос. 

США: стандарты вместо «единого закона»

В Соединённых Штатах доминирует «мягкий» подход: добровольный NIST AI RMF как общий язык управления рисками и инфраструктура тестирования вокруг U.S. AI Safety Institute (консорциум сотен компаний и исследовательских центров). Летом 2025-го институт переименовали в Центр стандартов и инноваций (CAISI) — акцент на стандартах и прикладной безопасности. Для глобальных вендоров это означает: в ЕС — жёсткий закон, в США — проверяемые, но добровольные рамки и стандартизация. 

Великобритания: «про-инновации» и отраслевые регуляторы

Лондон продолжает линию без единого AI-закона: принципы, координация существующих регуляторов и поддержка ИИ-индустрии. В начале 2025-го правительство вновь подтвердило упор на рост мощностей (ЦОД, суперкомпьютер) и регуляторную гибкость. Это меньше бумажной нагрузки, но и меньше правовой определённости, чем в ЕС. 

Китай: разрешительный режим и фильтры по умолчанию

КНР уже в 2023-м ввела рамки для генеративного ИИ и «глубокого синтеза»: регистрация сервисов, контроль данных и обязательная маркировка синтетического контента. Это отдельная, местами более жёсткая модель — своё поле правил для разработчиков. 

Индия: точечные предписания и «permission-first» для сырых моделей

Минцифры выпускало предупреждения: недообученные/«сырые» модели — только с разрешения и с мерами по предотвращению вреда (дискриминация, выборы и т. п.). Часть требований затем смягчили, но логика адресного надзора сохранилась. 

Япония: подробные, но необязательные бизнес-гайдлайны

Токио делает ставку на детальные AI Guidelines for Business (METI/MIC): единые принципы и приложения с кейсами — добровольно, но структурирует процессы по всему жизненному циклу модели. 

Южная Корея: рамочный закон с 2026 года

Сеул принял AI Basic Act (промульгация 21 января 2025-го), вступление в силу — 22 января 2026-го. Год отводится на подзаконные акты и подготовку бизнеса. По духу — «средний путь»: закон есть, но переход мягкий и с опорой на стандарты. 

Россия: «эксперименты под надзором» и подготовка базового каркаса

Россия идёт через экспериментально-правовые режимы (ЭПР) и «мягкую» этику, прицеливаясь на отдельный базовый закон:

  • ЭПР. Закон об ЭПР для цифровых инноваций и ИИ вступил в силу 4 января 2025 года (расширил ответственность и механизмы урегулирования инцидентов). Это легальная «песочница»: можно тестировать решения под государственным надзором. 

  • Этика. Добровольный Кодекс этики в сфере ИИ действует с 2021 года и служит ориентиром, а не источником санкций. 

  • Промышленные данные. Минпромторг готовит платформу для защищённого обмена промышленными данными (ЭПР), запуск — во втором полугодии 2026-го; разработчик — ФГАУ «Цифровые индустриальные технологии». Это инфраструктура для отраслевых кейсов ИИ. 

Что это значит для бизнеса в РФ. Внутри страны больше гибкости через ЭПР и отраслевые пилоты. Но при выходе на рынок ЕС всё равно срабатывает экстерриториальность AI Act: придётся подтягивать документацию по моделям, аудиты и процессы управления рисками до «европейской планки». 

Будут ли все равняться на Европу?

Частично — да, из-за «брюссельского эффекта»: если ваш продукт доступен в ЕС или его результаты используются в ЕС, европейские обязанности «догоняют» вас вне Европы. Но полного копирования не будет: США упираются в стандарты и тестирование, Великобритания — в гибкость, Азия — в собственные рамки (КНР — строгий разрешительный режим; Корея — рамочный закон; Япония — подробные гайдлайны). Отсюда практический вывод для глобальных компаний: брать ЕС как «верхнюю планку комплаенса», а затем локально дополнять требованиями конкретных юрисдикций. 

Нужны ли такие «гайки»?

Ответ зависит от реализации. Если требования конвертируются в проверяемые процедуры (логи, «паспорт модели», аудит, план быстрого отката), выигрывают все: меньше инцидентов — больше доверия и предсказуемости. Если же всё скатится в бумажную нагрузку и фрагментацию, ЕС получит безопасные, но медленные продукты, а команды и капитал пойдут туда, где проще и быстрее.

10 сентября, 2025
12
Возникла неизвестная ошибка Перезагрузите страницу 🗙
Произошла ошибка. Это приложение может больше не отвечать до перезагрузки. Перезагрузить 🗙