На рынке технологий конфиденциальности оформляется простой консенсус: побеждает не самый криптографически строгий подход, а тот, который можно встроить в корпоративную инфраструктуру без разрушения экономики продукта. Поэтому в 2026 году именно confidential computing выглядит главным фаворитом. Рынок этого сегмента уже оценивается в 42,7 млрд долларов, а Gartner относит его к числу ключевых технологических трендов .
Это уже не нишевая история для «особо чувствительных» сценариев, а часть базового enterprise-стека. Компании хотят использовать внешнюю инфраструктуру, данные и модели одновременно, но без полной капитуляции по вопросу доверия. Confidential computing предлагает практичный компромисс: не устранить доверие, а переместить его в аппаратно защищённую среду.
Именно это сегодня и покупает рынок.
Почему confidential computing впереди
Корпоративный спрос почти всегда выбирает не теоретическую чистоту, а приемлемую стоимость внедрения. Если защита требует переписывать пайплайны, платить высокой латентностью или терять в качестве, массового принятия не будет. Если приватность можно получить почти как инфраструктурную функцию, масштабирование становится реальным.
Отсюда и успех confidential computing. Для бизнеса это понятная модель: данные и модели обрабатываются в изолированной среде, не раскрываясь облачному провайдеру или оператору платформы. На фоне более тяжёлых криптографических подходов это выглядит как лучший доступный компромисс.
Но именно здесь и начинается главный неудобный вопрос.
Победа есть. Полной развязки нет
Конфиденциальные вычисления выиграли раунд, но не решили проблему доверия окончательно. Они не устраняют trust boundary, а переносят её в сторону аппаратного вендора, реализации и цепочки поставки. Это гораздо менее комфортная история, чем любит показывать рынок.
Основания для осторожности уже были: у Intel SGX находили уязвимости побочных каналов, у AMD SEV демонстрировались атаки извлечения. Поэтому текущее доминирование confidential computing выглядит одновременно заслуженным и хрупким: это самый практичный путь к приватности в enterprise, но он держится на предположении, что аппаратная граница доверия не даст серьёзной трещины.
История безопасности обычно наказывает именно за избыточную уверенность.
Финляндия показала: AI Act уже не «будущая проблема»
Отдельный сигнал пришёл из Европы. В январе Финляндия стала первым государством ЕС с полностью работающими полномочиями по правоприменению AI Act. На этом фоне особенно показательно, что более половины организаций до сих пор не имеют системной инвентаризации своих ИИ-систем, а многие команды по комплаенсу всё ещё рассчитывают на возможную отсрочку через Digital Omnibus до декабря 2027 года .
Эта ставка становится рискованной. AI Act уже превращается из «горизонтной» нормы в исполнимый режим. Для ML-команд это означает, что privacy-preserving архитектуру больше нельзя откладывать на потом: придётся заранее понимать, какие системы используются, какие персональные данные в них проходят и какие меры защиты можно предъявить в доказуемом виде .
Для AI-стартапов вывод тоже прикладной: растёт цена неформальности. Если компания не может объяснить, где проходят чувствительные данные и как именно они защищены, это будет хуже выглядеть и в enterprise-продажах, и в due diligence. Поэтому дифференциальная приватность, федеративное обучение и конфиденциальные вычисления всё больше становятся не просто техническим выбором, а инструментами комплаенса .
Федеративное обучение тоже вышло из режима обещаний
На этом фоне особенно показателен кейс Lilly TuneLab + Benchling. Платформа Eli Lilly, созданная на исследовательских инвестициях свыше 1 млрд долларов, теперь интегрирована с Benchling: более 1300 биотехнологических компаний могут запускать модели Lilly для разработки лекарств, возвращая отдельные результаты через федеративное обучение, при этом данные партнёров остаются локально, а проприетарные данные Lilly закрытыми.
Это важный сигнал для всего PPML-рынка: федеративное обучение всё чаще выглядит не как исследовательская идея или пилот, а как рабочая платформенная модель для чувствительных отраслей .
FHE-инференс становится заметнее. Но это всё ещё не перелом рынка
Показательный сигнал недели: запуск Niobium Microsystems платформы The Fog: облачного сервиса, выполняющего ИИ-нагрузки на данных, которые остаются зашифрованными на всём протяжении вычислений; ключи расшифрования остаются у клиента, а сам провайдер данных не видит. Это важный признак того, что FHE постепенно выходит из зоны лабораторных демонстраций в сторону продуктовых платформ.
Но говорить о переломе рынка пока рано. The Fog опирается на FPGA-акселератор mistic Core, а заявленное двукратное превосходство над GPU в задачах полностью гомоморфного шифрования пока не получило независимой верификации; параллельно Niobium разрабатывает ASIC совместно с SEMIFIVE и Samsung Foundry. Поэтому происходящее разумнее трактовать как шаг к зрелости направления, а не как момент, когда FHE уже начал переписывать правила рынка.
Рыночная логика здесь проста: FHE будет усиливаться там, где уровень недоверия слишком высок даже для аппаратной границы доверия. Но в массовых enterprise-нагрузках confidential computing пока остаётся более удобным вариантом. Иными словами, FHE-инференс это не смена шахматной доски, а усиление важного направления рядом с TEE, а не вместо них.
Что это значит для PPML
Если убрать шум, картина достаточно ясная.
Во-первых, privacy-preserving ML выходит из исследовательской резервации и становится частью практической архитектуры в чувствительных сценариях. Во-вторых, лидирует не самый строгий, а самый внедряемый подход: сегодня это confidential computing. В-третьих, у этого лидерства есть слабое место: оно опирается на доверие к железу. И наконец, регуляторы начинают формировать спрос не на «privacy вообще», а на доказуемые меры защиты .
Вывод
Конфиденциальные вычисления действительно выиграли текущий раунд. Они лучше всего соответствуют реальной логике корпоративного внедрения: понятная интеграция, низкий friction и приемлемая экономика . Но считать это окончательной победой преждевременно.
В безопасности редко побеждает тот, кто объявил проблему решённой. Обычно выигрывает тот, кто точнее понимает, где проходит граница доверия и сколько на самом деле стоит ошибка в её выборе.
Источники
Топ стратегических технологических трендов 2026 по Gartner
Niobium запускает The Fog — SiliconANGLE
Пресс-релиз Niobium — PRNewswire
Гомоморфное шифрование в LLM-пайплайнах: почему оно не работает — Protecto
Benchling + Lilly TuneLab — Benchling News
Запуск Lilly TuneLab — TipRanks
Руководство по соответствию AI Act ЕС в 2026 году — SecurePrivacy
AI Act ЕС: 6 шагов до 2 августа 2026 — Orrick
Сроки соответствия AI Act ЕС — GDPR Register
Прогноз рынка конфиденциальных вычислений — Fortune Business Insights