Европа закручивает гайки в ИИ: подтянутся ли США, Азия — и что делает Россия
Со 2 августа 2025 года в ЕС начали применяться правила к моделям общего назначения (GPAI) и заработала новая архитектура управления — это фактический старт «жёсткой» фазы AI Act. Сентябрь — первый месяц, когда компании живут по этим требованиям на практике.
Со 2 августа 2025 года в ЕС начали применяться правила к моделям общего назначения (GPAI) и заработала новая архитектура управления — это фактический старт «жёсткой» фазы AI Act. Сентябрь — первый месяц, когда компании живут по этим требованиям на практике.
Что именно меняется в Европе
AI Act ввели поэтапно: часть запретов и обязательств по «AI-грамотности» действует с февраля 2025-го, правила для GPAI и надзорной архитектуры — с 2 августа 2025-го; остальное будет докручиваться до 2026–2027 годов. На кону — прозрачность данных и ограничений моделей, способность проходить аудит и быстро устранять риски. Параллельно Еврокомиссия готовит «кодекс практики» для GPAI — бизнес ждал его раньше, но теперь ориентир скорее «к концу 2025-го». В любом случае курс ясен: ориентир на проверяемую безопасность и управляемость.
Глобальный контур: ООН пытается синхронизировать правила
26 августа 2025 года Генассамблея ООН приняла резолюцию о создании научной панели по ИИ и продолжении глобального диалога по управлению. Это попытка договориться о базовых процедурах (от отчётности до протоколов «стоп-кнопки») хотя бы на межгосударственном уровне. Но получится ли свести разные модели регулирования — открытый вопрос.
США: стандарты вместо «единого закона»
В Соединённых Штатах доминирует «мягкий» подход: добровольный NIST AI RMF как общий язык управления рисками и инфраструктура тестирования вокруг U.S. AI Safety Institute (консорциум сотен компаний и исследовательских центров). Летом 2025-го институт переименовали в Центр стандартов и инноваций (CAISI) — акцент на стандартах и прикладной безопасности. Для глобальных вендоров это означает: в ЕС — жёсткий закон, в США — проверяемые, но добровольные рамки и стандартизация.
Великобритания: «про-инновации» и отраслевые регуляторы
Лондон продолжает линию без единого AI-закона: принципы, координация существующих регуляторов и поддержка ИИ-индустрии. В начале 2025-го правительство вновь подтвердило упор на рост мощностей (ЦОД, суперкомпьютер) и регуляторную гибкость. Это меньше бумажной нагрузки, но и меньше правовой определённости, чем в ЕС.
Китай: разрешительный режим и фильтры по умолчанию
КНР уже в 2023-м ввела рамки для генеративного ИИ и «глубокого синтеза»: регистрация сервисов, контроль данных и обязательная маркировка синтетического контента. Это отдельная, местами более жёсткая модель — своё поле правил для разработчиков.
Индия: точечные предписания и «permission-first» для сырых моделей
Минцифры выпускало предупреждения: недообученные/«сырые» модели — только с разрешения и с мерами по предотвращению вреда (дискриминация, выборы и т. п.). Часть требований затем смягчили, но логика адресного надзора сохранилась.
Япония: подробные, но необязательные бизнес-гайдлайны
Токио делает ставку на детальные AI Guidelines for Business (METI/MIC): единые принципы и приложения с кейсами — добровольно, но структурирует процессы по всему жизненному циклу модели.
Южная Корея: рамочный закон с 2026 года
Сеул принял AI Basic Act (промульгация 21 января 2025-го), вступление в силу — 22 января 2026-го. Год отводится на подзаконные акты и подготовку бизнеса. По духу — «средний путь»: закон есть, но переход мягкий и с опорой на стандарты.
Россия: «эксперименты под надзором» и подготовка базового каркаса
Россия идёт через экспериментально-правовые режимы (ЭПР) и «мягкую» этику, прицеливаясь на отдельный базовый закон:
ЭПР. Закон об ЭПР для цифровых инноваций и ИИ вступил в силу 4 января 2025 года (расширил ответственность и механизмы урегулирования инцидентов). Это легальная «песочница»: можно тестировать решения под государственным надзором.
Этика. Добровольный Кодекс этики в сфере ИИ действует с 2021 года и служит ориентиром, а не источником санкций.
Промышленные данные. Минпромторг готовит платформу для защищённого обмена промышленными данными (ЭПР), запуск — во втором полугодии 2026-го; разработчик — ФГАУ «Цифровые индустриальные технологии». Это инфраструктура для отраслевых кейсов ИИ.
Что это значит для бизнеса в РФ. Внутри страны больше гибкости через ЭПР и отраслевые пилоты. Но при выходе на рынок ЕС всё равно срабатывает экстерриториальность AI Act: придётся подтягивать документацию по моделям, аудиты и процессы управления рисками до «европейской планки».
Будут ли все равняться на Европу?
Частично — да, из-за «брюссельского эффекта»: если ваш продукт доступен в ЕС или его результаты используются в ЕС, европейские обязанности «догоняют» вас вне Европы. Но полного копирования не будет: США упираются в стандарты и тестирование, Великобритания — в гибкость, Азия — в собственные рамки (КНР — строгий разрешительный режим; Корея — рамочный закон; Япония — подробные гайдлайны). Отсюда практический вывод для глобальных компаний: брать ЕС как «верхнюю планку комплаенса», а затем локально дополнять требованиями конкретных юрисдикций.
Нужны ли такие «гайки»?
Ответ зависит от реализации. Если требования конвертируются в проверяемые процедуры (логи, «паспорт модели», аудит, план быстрого отката), выигрывают все: меньше инцидентов — больше доверия и предсказуемости. Если же всё скатится в бумажную нагрузку и фрагментацию, ЕС получит безопасные, но медленные продукты, а команды и капитал пойдут туда, где проще и быстрее.