Архитектура доверия: «экспортный гамбит» России в ответ на «первородный грех» западного ИИ

12 ФЕВРАЛЯ 2026

Технологические гиганты Запада построили свои ИИ-империи на фундаменте «первородного греха» — массовом использовании пиратских данных. Теперь этот фундамент трещит под тяжестью исков и противоречивой позицией стейкхолдеров: одни требуют ликвидировать модели, другие — легализовать порок через штрафы. Суверенные же государства и отраслевые альянсы, как в Японии, на официальном уровне требуют прекратить эксплуатацию их культурного достояния и оспаривают саму легитимность американской модели «нарушай и плати». Этот хаос, который мы определяем как «регуляторная шизофрения», создал глобальный «вакуум доверия» и уникальную рыночную возможность. Мы анализируем, как Россия, опираясь на свою Национальную стратегию, может совершить «экспортный гамбит»: предложить миру не просто очередной алгоритм, а «доверенный ИИ» — продукт, свободный от юридических мин и непредсказуемости Запада. Кто победит в глобальной гонке ИИ: тот, кто нарушает правила быстрее всех, или тот, кто создает правила, которым можно доверять?

Содержание


«Первородный грех» данных и экономика расчетного нарушения

Судебное решение, установившее факт сознательного использования Anthropic миллионов пиратских книг (Ming, 2025), функционирует как диагностический инструмент для всей индустрии искусственного интеллекта. Прямое доказательство умысла — зафиксированное в документах суда желание CEO избежать «юридической волокиты» — выводит анализ за рамки частного случая нарушения авторских прав.

Оно раскрывает операционную модель, унаследованную от предыдущего технологического цикла платформ: «нарушай сейчас, плати потом». В этой парадигме потенциальный штраф рассматривается не как барьер, а как расчетная статья операционных расходов (OPEX) на пути к доминированию на рынке. Нарушение закона становится рациональной инвестицией, если ожидаемая выгода от захвата рынка многократно превышает прогнозируемые издержки.

Этот сдвиг в операционной модели лучше всего иллюстрирует кейс Microsoft. На протяжении десятилетий, начиная с 1990-х, компания вела глобальную войну с пиратством, финансируя антипиратские альянсы и лоббируя усиление наказаний за нарушение авторских прав. В 2001 году Брэд Смит, тогда заместитель главного юрисконсульта Microsoft, называл (Simpson, 2001) цифровое пиратство частью «организованных преступных предприятий». Сегодня Брэд Смит — президент Microsoft, а компания, инвестировавшая более $13 млрд в OpenAI, является главным бенефициаром индустриального использования тех самых пиратских данных, с которыми она когда-то боролась. Федеральное правительство США, которое в 2011 году преследовало активиста Аарона Шварца по уголовной статье за скачивание академических статей (1:11-cr-10260-NMG, 2011), теперь игнорирует промышленный масштаб нарушений со стороны техногигантов. Произошла смена парадигмы: нарушение авторских прав перестало быть преступлением, с которым борется государство, и стало бизнес-моделью, которую оно молчаливо одобряет (Fang, 2025). «Первородный грех» данных — это сознательный политический и экономический выбор, продиктованный интересами крупнейших технологических игроков.

Более того, экономическая целесообразность этой модели больше не является теоретической. Одно из исследований предоставляет эмпирические доказательства того, что модели ИИ показывают измеримо лучшую производительность при обучении на защищенных авторским правом произведениях, с улучшением результатов до 23% при использовании пиратских книг (Jia & Nagaraj, 2025). Этот количественно измеримый прирост объясняет масштаб сбора данных, который становится индустриальным стандартом. Кейс Anthropic не является исключением. В ходе судебного процесса против Meta* было раскрыто, что компания скачала через торренты как минимум 81,7 ТБ данных из теневых библиотек, таких как Z-Library и LibGen, для обучения своих моделей Llama (Naprys, 2025). Это не было ошибкой или действием рядовых инженеров. Согласно непубличным документам Meta*, юридический отдел компании был непосредственно вовлечен в обсуждение прекращения усилий по лицензированию в пользу использования пиратских источников, демонстрируя «умышленную коммерческую эксплуатацию, а не добросовестное трансформационное использование» (3:23-cv-03417-VC, 2025).

Анализ датасета Books3, использовавшегося для обучения моделей Bloomberg, Meta* и EleutherAI, показал наличие более 170 тысяч книг, защищенных авторским правом, включая произведения Стивена Кинга, Зэди Смит и Майкла Поллана. Это системный юридический риск для всех продуктов, построенных на базе этих моделей (Reisner, 2022), что ставит под вопрос общую легитимность технологического стека и открывает возможность для исков, требующих не только компенсации, но и уничтожения моделей, обученных на пиратских данных.

Такая стратегия охватывает гораздо больше, чем нарушение авторских прав. Ярчайший пример из смежной области — кейс компании Clearview AI, которая построила свой бизнес на скрейпинге более 30 миллиардов фотографий из социальных сетей для создания базы данных распознавания лиц, используемой полицией (DeGeurin, 2023). Это происходило в обход правил платформ, что вызвало их прямую реакцию. Google в своем требовании прекратить незаконные действия подчеркнул: «Условия использования YouTube прямо запрещают сбор данных, которые могут быть использованы для идентификации личности. Clearview публично призналась, что делает именно это» (Bonifacic, 2020). Таким образом, логика игнорирования установленных норм ради сбора данных универсальна, меняется лишь юридическая квалификация — от нарушения копирайта к нарушению приватности и пользовательских соглашений.

То, как компания реагирует на многочисленные штрафы со стороны европейских регуляторов — прекрасная иллюстрация этой модели. Получив штраф в размере более $33 млн от Управления по защите данных Нидерландов (DPA) за незаконный сбор изображений граждан ЕС, компания не изменила свою практику, а лишь оспорила юрисдикцию. Ее юридический директор заявил: «Clearview AI не имеет места ведения бизнеса в Нидерландах или ЕС… и не осуществляет никакой деятельности, которая в противном случае означала бы, что она подпадает под действие GDPR. Это решение незаконно, лишено надлежащей правовой процедуры и неисполнимо» (Watt, 2024). Аналогичным образом, в деле против Getty Images компания Stability AI пытается доказать, что обучение ее моделей происходило в странах с более мягким законодательством (в США, а не в Великобритании), чтобы избежать ответственности. Однако суды начинают относиться к таким аргументам скептически, особенно когда доказательства основателя компании противоречат его же публичным заявлениям (Penningtons Manches Cooper LLP, 2024).

Даже крупнейшие штрафы, наложенные регуляторами, представляют собой незначительную долю от годовой выручки технологических гигантов, превращаясь из экзистенциальной угрозы в прогнозируемую статью операционных расходов. Например, штраф в €746 млн, наложенный на Amazon в Люксембурге в 2021 году, составлял десятые доли процента от ее годовой выручки в $469,8 млрд за тот же год (Burgess, 2021, Amazon, 2022). Аналогично, штраф в €1,2 млрд, наложенный на Meta* в 2023 году, является незначительной суммой на фоне годовой выручки, превышающей $134 млрд (Milmo & O'Carroll, 2023, Meta, 2022).

Опережающий рост капитализации, вознаграждаемый стратегическими инвесторами, делает любые санкции незначительными на фоне полученной рыночной оценки. Так, развертывание моделей, обученных на данных The Times, помогло увеличить рыночную капитализацию Microsoft на $1 трлн за один год (1:23-cv-11195, 2023).

Полезность против безопасности, патриотизм против утилитаризма, мода против традиций, комфорт и удобство против идеологической правильности — эти и другие разломы характеризуют потребительские привычки нашего многоукладного и многопоколенного общества. Расходящиеся острова прежде глобального мира остро ставят вопросы безопасности, лояльности и суверенитета, которые прежде маячили где-то на третьем плане. Сегодня их важность существенно возросла, и слома этой тенденции пока не намечается. Если доверие в международном масштабе ослаблено, то нужно, с одной стороны, восполнять его внутри национальных государств. А с другой — создавать «переходники», «мосты» и другие сложные конструкции. Они необходимы для сохранения хотя бы минимального уровня взаимодействия между все дальше расходящимися странами. С учетом непрерывно растущей важности цифрового аспекта нашей жизни концепция «Доверенного ИИ» может сыграть важную роль в решении этих и других сложнейших проблем современности.
Валерий Федоров
Генеральный директор, ВЦИОМ

Если ИИ-модель построена на данных с сомнительным происхождением, она становится «токсичным активом», несущим скрытый юридический и репутационный риск, способный обнулить ее стоимость. Угроза становится материальной, когда правообладатели, такие как The New York Times, заявляют, что генеративные модели «могут генерировать вывод, который дословно цитирует контент The Times, близко его суммирует и имитирует его выразительный стиль» (Helmore & Paul, 2023, 1:23-cv-11195, 2023). Анализ дела New York Times Co. v. Tasini показывает, что менее 30 лет назад сама The Times в качестве ответчика выступала против авторов, утверждая, что защита их прав нанесет непоправимый вред новым технологиям (цифровым архивам). Сегодня, будучи истцом, она занимает противоположную позицию (Pope & hlr, 2024).

В деле против Stability AI сгенерированные изображения порой воспроизводили искаженную версию вотермарка Getty Images, визуально доказывая факт обучения модели на защищенном контенте (Le, 2025). Истец подчеркивал, что его изображения были особенно ценны для обучения ИИ из-за их высокого качества и детальных метаданных (Waters, 2024).

В ответ формируется первый защитный механизм и новый рынок — аудит происхождения данных. Это точка, из которой система может развиваться по двум расходящимся сценариям.

Китайские и американские модели, выдавая результат, опираются на свои региональные ценности и взгляды на мировую политику. ИИ становится «супер-Википедией», умноженной по степени влияния на 100. Использование чужих моделей означает импорт чужой картины мира. Поэтому создание национальных фундаментальных моделей на базе суверенных датасетов — это вопрос сохранения культурного кода. Для стран БРИКС и ЕАЭС российские оцифрованные корпуса данных и опыт их структурирования становятся стратегическим активом.
Александр Павлов
Главный управляющий партнер по развитию ИИ, ВЭБ.РФ

От «регуляторной шизофрении» к «вакууму доверия»

Запад отвечает на «первородный грех» данных фрагментированной, противоречивой реальностью. Система мечется между путями, пытаясь реализовать два взаимоисключающих вектора одновременно. В итоге формируется поле высокой неопределенности и глобальный «вакуум доверия».

Вектор 1: «жесткий сброс» — регуляторы меняют правила игры

Логика этого вектора проста: если совокупный ущерб от нарушений — финансовый, репутационный, социальный — становится политически неприемлемым, то государство и правообладатели переходят от штрафов к механизмам, которые атакуют саму возможность вести бизнес по старой модели. Эти механизмы страшнее любых денежных взысканий, потому что они нацелены на экзистенциальные основы бизнеса.

  1. Аннулирование актива. Если модель уличена в «первородном грехе» обучения на краденых данных, то суд аннулирует право на ее коммерческое использование. Это уничтожает сам актив, что гораздо ощутимее системы штрафов. Этот, казалось бы, радикальный шаг уже является частью реального судебного требования: The New York Times в своем иске просит суд предписать «уничтожение… всех моделей GPT или других LLM и наборов обучающих данных, которые включают в себя работы The Times» (1:23-cv-11195, 2023). Определяющим является не физическое уничтожение файлов, которое трудно проконтролировать, а получение судебного запрета на коммерческое использование модели и всех ее производных. Такой запрет делает актив токсичным для любого корпоративного пользователя или инвестора, обнуляя его рыночную стоимость.
  2. Рыночная блокада. Если компания — систематический нарушитель, то она лишается доступа к самым прибыльным рынкам: государственным закупкам, финансовому сектору, здравоохранению. Именно это произошло с Clearview AI в частном секторе после судебного иска в Иллинойсе, который вынудил компанию прекратить все свои контракты с частными компаниями (Heilweil, 2020, Mac et al., 2020).
  3. Ответственность инвестора и руководства. ЕЕсли санкции и запреты игнорируются, система переходит на следующий уровень, нацеливаясь уже на лиц, принимающих решения. Так, Clearview AI проигнорировала штрафы на общую сумму около €100 млн от надзорных органов Франции, Греции, Италии и Нидерландов. Голландский регулятор DPA, столкнувшись с отказом платить, заявил о намерении «расследовать, можем ли мы привлечь менеджмент компании к личной ответственности и оштрафовать их за руководство этими нарушениями» (Watt, 2024). А в октябре 2025 года европейская организация по защите прав noyb подала уголовную жалобу против Clearview AI и ее менеджеров в Австрии (noyb, 2025). Как отмечает основатель noyb Макс Шремс, «мы ведем трансграничные уголовные дела по кражам велосипедов, поэтому мы надеемся, что прокуратура примет мерыв случае хищения персональных данных миллиардов людей». Это форма экзистенциального риска, нацеленная на личную свободу ее руководства.

Сигналы этого вектора материализуются в регуляторных документах высшего уровня. Предложенный ЕС AI Act является примером перехода от штрафов к прямым запретам, вводя категорию «неприемлемого риска» и полностью запрещая использование ИИ для «социального скоринга, эксплуатации уязвимых групп и определенных видов биометрического наблюдения в реальном времени» (Hadfield & Clark, 2023). Подход демонстрирует намерение регулятора структурно исключать целые классы ИИ-систем с рынка.

Вектор 2: «циничный симбиоз» — корпорация платит, государство получает

Второй вектор, действующий параллельно, основан на прагматизме, граничащем с цинизмом: вместо искоренения нарушения оно встраивается в экономическую модель, создавая тандем между нарушителем и регулятором.

  1. Корпорация: нарушение как статья дохода. Расследование Reuters, основанное на внутренних документах Meta*, предоставляет прямые доказательства этой модели в действии (Horwitz, 2025)— компания активно монетизирует нарушения вместо борьбы с ними. Согласно внутренним прогнозам, Meta* ожидала получить в 2024 году около 10% своей годовой выручки ($16 млрд) от рекламы мошеннических схем и запрещенных товаров. Вместо блокировки сомнительных рекламодателей, Meta* разработала систему «штрафных ставок», взимая с них повышенную плату. Таким образом, риск не устраняется, а монетизируется с повышенной маржинальностью.

  2. Государство: рента с «токсичного актива». Компании подобные Meta* ставят нарушения на поток, закладывая штрафы в бизнес-модель. Так санкции превращаются в налог, регулярно пополняющий бюджет регулятора. Примеры Amazon (€746 млн штрафа) и Meta* (€1.2 млрд) говорят сами за себя. С одной стороны, они слишком малы, чтобы изменить поведение корпораций (составляя доли процента от их выручки). С другой — они достаточно велики, чтобы стать значимой статьей дохода для бюджета. Регуляторы попадают в ловушку: искоренение нарушений означает потерю стабильного финансового потока. Компании фактически покупают лицензию на нарушение закона. Государство, даже не желая того, становится системным бенефициаром такой модели.

Циничный симбиоз достигает пика, когда компании перестраивают саму корпоративную структуру ради прибыли. В качестве примера — кейс реструктуризации OpenAI в 2025 году. Изначально созданная как некоммерческая организация (NFP) с миссией «обеспечить пользу для всего человечества» OpenAI трансформировалась в Public Benefit Corporation (PBC) с неограниченной прибылью для инвесторов. В результате этой «рекапитализации» доля фонда в будущей прибыли компании сократилась с «подавляющего большинства» (по словам сооснователя Грега Брокмана, «все, кроме доли процента») до всего лишь 26%.

Возникает противоречие, которое маскируется официальной риторикой. Сама OpenAI представляет эту сделку как позитивный шаг (Taylor, 2025), заявляя, что некоммерческий фонд «становится одной из самых обеспеченных филантропических организаций в истории», а его первоначальные цели — «здравоохранение и лечение болезней». Регулятор, в лице генерального прокурора штата Делавэр, поддерживает эту оптимистичную трактовку. Одобрив сделку, он заявил, что были обеспечены «гарантии, которые будут направлять эту мощную технологию на благо человечества» (Delaware Department of Justice, 2025). В качестве доказательства приводятся формальные механизмы: некоммерческая организация (NFP) сохраняет право назначать и снимать директоров коммерческой (PBC), а ее комитет по безопасности имеет право вето на выпуск моделей. На бумаге контроль сохраняется.

Однако критики называют эту сделку «величайшей кражей в истории» (Mowshowitz, 2025) и указывают на иллюзорность контроля. Фактически, общественный актив (будущая прибыль некоммерческой организации) был конвертирован в частный капитал инвесторов. Сделка с Microsoft, в рамках которой та получила долю в 27% (больше, чем у некоммерческого фонда), лишь подтверждает, что реструктуризация была проведена в интересах крупнейших коммерческих партнеров.

Таким образом, «циничный симбиоз» проявляется двух уровнях: Meta* монетизирует мошенническую рекламу, OpenAI отказывается от изначально заявленной миссии в пользу максимизации прибыли. Декларации о «безопасности» и «пользе для человечества» со стороны ведущих западных разработчиков выглядят лицемерием.

Появляется целая экосистема, которая помогает компаниям обслуживать нарушения. Рынок AI-driven legal compliance вырос почти втрое — с $3,5 млрд в 2020 году до $10 млрд в 2024 году. Индустрия готовится не столько к искоренению нарушений, сколько к управлению их последствиями, превращая комплаенс в отдельный коммерческий продукт и услугу. Исследования показывают, что внедрение таких инструментов снижает количество нарушений комплаенса на 37% и повышает эффективность корпоративного управления с 59,2% до 73,6%, что делает инвестиции в этот рынок экономически оправданными (Celestin et al., 2025). Возникает и рынок «страхования комплаенс-рисков», где сложные финансовые продукты позволяют покрывать потенциальные штрафы, еще глубже нормализуя нарушение как приемлемый бизнес-риск. Фактически мы наблюдаем зарождение рынка «индульгенций».

Регуляторная шизофрения как главный источник неопределенности

Анализ регуляторного поля США в 2025 году показывает, что оба вектора не являются альтернативами, а сосуществуют, создавая фрагментированную и высокорисковую среду и формируя глобальный «вакуум доверия». На федеральном уровне доминирует логика «циничного симбиоза»: указ президента Трампа отменил большинство ограничений предыдущей администрации, устранив требования к информированию регулятора перед развертыванием ИИ-систем, маркировке созданного ИИ контента, подаче уведомлений об инцидентах и проведению аудитов предвзятости (The White House, 2025). Это сигнал рынку о приоритете инноваций над регулированием.

Однако на уровне штатов и отраслей активно реализуется вектор «Жесткого сброса». Штат Колорадо ввел классификацию «высокорисковых» ИИ-систем, аналогичную EU AI Act (Colorado General Assembly, 2025). Калифорния с 2026 года вводит Акт о прозрачности ИИ с ежедневными штрафами в $5000 за несоблюдение (California Legislative Information, 2024). Отраслевые регуляторы действуют еще жестче: FDA требует от разработчиков медицинского ПО с ИИ предоставлять «заранее определенный план контроля изменений» (U.S. FDA, 2024, U.S. FDA, 2024), что является прямым вмешательством в жизненный цикл модели. Игнорирование Акта о конфиденциальности биометрической информации (BIPA) в Иллинойсе может стоить до $5000 за каждое нарушение (Doran et al., 2024), что уже привело к многомиллионным коллективным искам. Неисполнение правил Федеральной торговой комиссии (FTC) в отношении вводящей в заблуждение рекламы возможностей ИИ влечет штраф в размере $50120 за каждое нарушение (Xenoss, 2020).

Это противоречие, где на федеральном уровне поощряется свобода, а на локальном вводятся жесткие барьеры, и есть главный источник неопределенности для разработчиков. Для любой международной компании, оперирующей в США, навигация в этом минном поле из десятков противоречивых законов штатов и отраслевых правил становится ощутимой статьей непроизводственных издержек и рисков. Имманентное свойство американской правовой системы, основанной на прецедентах и постоянной смене политических векторов, делает ее структурно неспособной предложить миру единый и предсказуемый стандарт регулирования технологий, что и является первопричиной «вакуума доверия».

Парадокс The New York Times как признак разлома

Система создает хаос и новые риски. The New York Times наглядно это демонстрирует: в стремлении доказать вину OpenAI, издание само инициировало массовое нарушение приватности. The Times добилась судебного постановления, обязывающего OpenAI сохранять все без исключения логи пользовательских чатов, включая те, что были удалены пользователями (Edelson, 2025).

Борьба за интеллектуальную собственность превращается в создание беспрецедентной по своему масштабу базы данных для наблюдения. Аргументация суда о том, что удаление чатов может быть признаком сокрытия нарушений, игнорирует тысячи легитимных причин для сохранения конфиденциальности. Как отмечает юрист Джей Эдельсон, «то, что The Times называет “доказательствами”, миллионы американцев называют “секретами”».

Возникает противоречие: издание, построившее свой бренд на разоблачении государственной слежки, теперь требует создания «крупнейшей базы данных для наблюдения в истории» для достижения своих коммерческих целей. Это меняет расстановку сил: жертва нарушения становится агрессором, а пользователи ИИ — заложниками корпоративной войны, чья приватность становится побочным ущербом.

Исследования показывают, что в модель можно зашить «триггер», который будет включать совсем другое поведение, и при обычном тестировании это почти не видно. Реальные случаи вредоносных моделей и артефактов в открытых репозиториях уже фиксировались.
Алексей Лукацкий
Бизнес-консультант по информационной безопасности, Positive Technologies

Кейс Японии: от коммерческого спора к геополитическому конфликту

Регуляторная война выходит на государственный уровень. В октябре 2025 года правительство Японии через Секретариат по продвижению стратегии интеллектуальной собственности направило (Vigliarolo, 2025) официальный запрос в OpenAI с требованием прекратить нарушение авторских прав при генерации видео в модели Sora 2.

Причиной стало массовое создание контента, имитирующего стилистику японских анимационных студий и использующего защищенных персонажей. Министр по стратегии интеллектуальной собственности Минору Киути назвал аниме и мангу «незаменимыми сокровищами, которыми мы можем гордиться во всем мире», тем самым определив частный спор как угрозу национальному достоянию.

Эскалация конфликта последовала незамедлительно. Вслед за правительством, антипиратская организация CODA, представляющая интересы таких гигантов, как Studio Ghibli, Bandai Namco и Square Enix, направила (Bonifield, 2025) в OpenAI официальное письмо, оспаривающее саму легитимность американской модели «opt-out» (отказа по запросу). CODA утверждает, что по японскому законодательству для использования защищенных произведений «требуется предварительное разрешение», и не существует механизма, который «позволяет избежать ответственности за нарушение через последующие возражения».

Этот кейс вскрывает два фундаментальных аспекта «вакуума доверия». Во-первых, Sora 2 демонстрирует избирательную слепоту: не генерирует изображения защищенных американских персонажей, таких как Микки Маус, но беспрепятственно использует японскую интеллектуальную собственность. По мнению японских политиков, американские платформы по умолчанию защищают интересы своей юрисдикции, рассматривая остальной мир как ресурсную базу. Во-вторых, несмотря на заявления CEO OpenAI Сэма Альтмана о «признании выдающегося творческого вклада Японии» и введении частичной фильтрации, правительству Японии пришлось прибегнуть к официальному вмешательству. Это доказывает, что декларации и «мягкие» меры со стороны техногигантов не работают без прямого политического давления со стороны суверенных государств.

Таким образом, проблема выходит за рамки корпоративных исков, становясь вопросом защиты национальных интересов и технологического суверенитета, что и является главным драйвером спроса на альтернативные, «доверенные» ИИ-системы.

Вывод о формировании вакуума доверия

Сосуществование этих векторов создает для любого пользователя или инвестора в западные ИИ-технологии три уровня риска:

  • Экзистенциальный риск от вектора «жесткого сброса» (модель может быть уничтожена).
  • Финансовый риск от вектора «циничного симбиоза» (непредсказуемые издержки на штрафы и комплаенс).
  • Риск побочного ущерба от системных парадоксов (данные пользователей могут стать заложниками корпоративных войн).
Общая атмосфера конфликтности, турбулентности, растущих взаимных подозрений — плохая среда для доверия. А именно такая атмосфера нарастает в мире вот уже как минимум десятилетие. Эскалация произошла в последние три года: «отмена России», «победить Россию на поле боя», диффамация россиян на всех возможных международных площадках. О каком доверии к западным цифровым сервисам после этого можно говорить? Мы во ВЦИОМ фиксируем последовательное падение интереса к глобальным платформам, что, конечно, усиливается запрещением в России многих из них. По сравнению с довоенными временами использование Инстаграма*, Фейсбука*, Твиттера превратилось в сугубо нишевое. Исключением остаются западные нейросети и интернет-мессенджеры, но надолго ли?
Валерий Федоров
Генеральный директор, ВЦИОМ

Проблема для крупного бизнеса и институциональных инвесторов заключается в смене самой природы риска: из категории «просчитываемый финансовый» он переходит в категорию «непрогнозируемый экзистенциальный». Возможность аннулирования ключевого технологического актива судебным решением делает долгосрочные инвестиции и стратегическое планирование невозможными, что и формирует спрос на предсказуемость.

Основной текущий риск — не спецслужбы, а «теневой ИИ». Сотрудники сами, из лучших побуждений, выносят конфиденциальную информацию в публичные сервисы... Уже были реальные инциденты, когда сотрудники крупных компаний (Samsung и др.) копировали в публичные LLM исходный код, внутренние протоколы совещаний и техническую документацию.
Алексей Лукацкий
Бизнес-консультант по информационной безопасности, Positive Technologies

Западные ИИ-модели становятся рискованным активом не только из-за своего происхождения, но и из-за непредсказуемости регуляторной среды и побочных эффектов борьбы с ними. Именно это стимулирует рыночную возможность, которую может заполнить принципиально иной продукт.

Любые данные, которые вы отправили в облако под юрисдикцией США или ЕС, в теории могут быть запрошены в рамках законных процедур — суд, национальная безопасность, СОРМ. Это реальное расширение периметра в юрисдикцию другой страны. Для критичных государственных и оборонных задач это недопустимо. Там, где цена ошибки велика, решение простое: самые чувствительные вещи живут только в суверенных или локально развернутых моделях.
Алексей Лукацкий
Бизнес-консультант по информационной безопасности, Positive Technologies

В этом сценарии формируется рынок «чистого ИИ». Компании, способные доказать и сертифицировать легальность своих данных, получают колоссальное конкурентное преимущество. Параллельно возникает технологический рынок «комплаенс-как-услуга» (compliance-as-a-service) — платформы для автоматизированного аудита и сертификации ИИ-моделей.

Российская аномалия: фундамент для экспортного гамбита

Глобальные регуляторные риски и судебные процессы дойдут до России с временным лагом. Эту задержку следует рассматривать как стратегическую позицию: она дает российским разработчикам и государству возможность наблюдать за ошибками и реакциями на Западе в реальном времени, чтобы действовать проактивно.

С эрозией массовых представлений об открытости, дружелюбности, единстве глобального мира вопросы принадлежности продуктов, услуг и платформ, которыми мы пользуемся, встают все чаще. Если раньше об этом мало кто задумывался, то сегодня для многих это становится важной границей, маркером распознавания «своего-чужого». В отношении ИИ различение еще не так очевидно, однако отечественные техногиганты постепенно начинают акцентировать российскость как важный атрибут безопасности, высоких потребительских свойств и покупательского патриотизма. При продолжении наметившихся тенденций очевидно, что следует ожидать более внимательного отношения россиян к происхождению той или иной нейросети, а властей — к политике нейросетей и соответствующим ограничениям на доступ к ним наших граждан.
Валерий Федоров
Генеральный директор, ВЦИОМ

Если Россия импортирует модель «циничного симбиоза», где штрафы с технологических компаний становятся стабильной статьей дохода бюджета, это может стать краткосрочным решением для финансирования разработок. Однако в долгосрочной перспективе это создаст токсичные национальные модели, неконкурентоспособные на глобальных рынках, где происхождение данных становится определяющим фактором. Выбор пути проактивной отстройки от этой модели открывает для России неожиданное окно возможностей.

Россия оказалась в уникальной ситуации. Страна обладает тремя фундаментальными компонентами, необходимыми для создания и экспорта «чистого ИИ»: юридическим, ресурсным и технологическим.

Юридический фундамент: возможность целенаправленного проектирования

В отличие от США и ЕС, чье законодательство представляет собой сложное наслоение противоречивых актов, созданных для предыдущей технологической эпохи, российское правовое поле в области данных является относительно новым. Это стратегическое преимущество.

Национальная стратегия развития ИИ до 2030 года (Минцифры, 2025, Указ Президента РФ № 490, 2019) уже закладывает основы для такого подхода, ставя во главу угла обеспечение суверенитета и безопасности данных, вводя понятие «доверенные технологии искусственного интеллекта» — технологии, отвечающие стандартам безопасности и исключающие нарушение прав человека. Целью регулирования прямо названо создание «благоприятных нормативно-правовых условий», а одним из основополагающих принципов — «технологический суверенитет». Становится ясно, что создание предсказуемой и суверенной юрисдикции является осознанной государственной политикой.

Что касается правовых механизмов, безусловно, необходима определенная гармонизация законодательства тех стран, которые планируют сотрудничество в ИИ-сфере – именно об этом говорил Владимир Путин, выступая на конференции AI Journey 2025. Если мы заинтересованы в экспорте своих компетенций в сфере искусственного интеллекта, то должны сделать первый шаг: гарантировать потенциальным партнерам юридическую безопасность использования российских языковых моделей, прописав источники для их обучения на уровне федерального закона. Считаю эту задачу первоочередной и сверхсрочной в комплексе мер законодательного регулирования ИИ.
Антон Горелкин
Депутат Государственной Думы РФ, Председатель правления РОЦИТ

Отсутствие аналогов американского прецедентного права и многоуровневой системы законов штатов позволяет избежать правовых двусмысленностей. Вместо этого возможно создание единого, прозрачного национального кодекса оборота данных, который бы четко определял правовой статус различных типов датасетов, механизмы их анонимизации и условия легального использования для обучения ИИ.

EU AI Act выглядит как неподъемная бюрократия. Европа пытается повторить «успех» GDPR, но этот путь ведет в пропасть: снижение показателей экономик, отток стартапов, потеря лидерства. Россия может предложить альтернативу: не «анти-регулирование», а инженерный, практичный подход. Пакет стандартов и методик именно по безопасности ИИ — совместимый с NIST и ISO, но без европейского бумажного монстра.
Алексей Лукацкий
Бизнес-консультант по информационной безопасности, Positive Technologies

Так, относительная «незрелость» правового поля может стать возможностью создания самой предсказуемой и непротиворечивой юрисдикции для разработки ИИ в мире. Если модель обучена на полностью лицензированных или открытых данных, то она неуязвима для исков от The New York Times или Getty Images. Правовая стабильность превращает любую созданную в этой юрисдикции модель в более привлекательный актив.

Ресурсный фундамент: доступ к суверенным датасетам

«Первородный грех» западных моделей заключается в их зависимости от глобальных, но юридически «серых» данных, собранных скрапингом со всего интернета. Российское преимущество — в доступе к масштабным, централизованным и, что наиболее существенно, юридически чистым суверенным датасетам. Национальная стратегия прямо ставит задачу «формирование органами публичной власти, коммерческими и некоммерческими организациями полных и актуальных наборов данных» и создание механизмов доступа разработчиков к ним, включая «обезличенные медицинские данные» и «промышленные данные». Проявляется курс на создание национальных «чистых» датасетов как государственного ресурса.

  • Государственные данные. Массивы данных портала «Госуслуги», Единой биометрической системы (ЕБС), медицинских информационных систем (ЕГИСЗ) представляют собой гигантские, структурированные и юридически подконтрольные наборы данных, которые могут быть анонимизированы и использованы для обучения на национальном уровне.
  • Данные экосистем. Крупнейшие российские технологические компании (Сбер, Яндекс, VK, МТС) обладают массивами поведенческих данных в рамках единой юрисдикции. В отличие от глобальных платформ, чьи данные распределены по десяткам стран с разными законами, здесь возможно заключение прямых лицензионных соглашений на использование данных под единым правовым режимом.
У России есть уникальный ресурс — огромные, еще не оцифрованные корпуса данных. Их перевод в размеченные структурированные датасеты создает актив, представляющий стратегическую ценность не только для нас, но и для стран СНГ и ЕАЭС.
Александр Павлов
Главный управляющий партнер по развитию ИИ, ВЭБ.РФ

Ведущим прототипом такой системы является московский эксперимент по внедрению ИИ в лучевую диагностику. С 2020 года в рамках единой цифровой платформы здравоохранения было проанализировано более 11 млн медицинских изображений из 150 медучреждений. Этот массив легальных, размеченных и юридически подконтрольных государственных данных стал основой для обучения нейросетей, которые помогают диагностировать заболевания по 28 клиническим направлениям. Важно, что это не просто эксперимент, а устойчивая экосистема: почти 90% разработчиков в проекте — отечественные компании, а анализ снимков с помощью ИИ с 2023 года оплачивается из средств фонда ОМС (Официальный портал Мэра и Правительства Москвы, 2023). На основе размеченных медицинских изображений функционируют как системы анализа КТ, МРТ и маммограмм, так и система поддержки принятия врачебных решений (СППВР), которая уже помогла поставить более 10 млн диагнозов, и система анализа ЭКГ, обработавшая более 2,7 млн кардиограмм (Собянин, 2023). Складывается устойчивая модель, в рамках которой государство формирует заказ, предоставляет легальные данные, а отечественные разработчики создают на их основе продукты, которые затем интегрируются в систему здравоохранения и масштабируются.

Такие обучающие выборки, чье происхождение полностью аудируемо и легально, устраняют саму возможность исков, аналогичных делу The New York Times.

Вопрос «чистоты» датасетов, используемых для обучения языковых моделей, очень актуальный. Участвуя в мировой ИИ-гонке, российские компании были вынуждены использовать данные из открытых источников. В пиратстве никого не уличили, но сомнительного контента было достаточно: взять хотя бы статьи из «Википедии», целенаправленно насыщаемые враждебной нам идеологией. При этом Россия обладает огромным ресурсом разнообразных документов, сосредоточенным в государственных научных учреждениях, информагентствах, библиотеках и архивах. Считаю, что государство должно открыть доступ к этим данным для отечественных ИИ-разработчиков с целью переобучения российских языковых моделей. Считаю это одним из важнейших условий создания «доверенного ИИ», о котором говорит автор статьи.
Антон Горелкин
Депутат Государственной Думы РФ, Председатель правления РОЦИТ

Технологический фундамент: наличие суверенных моделей

Данные бесполезны без технологий для их обработки. Третий компонент фундамента — наличие в России собственных фундаментальных моделей, которые могут служить технологической основой для «чистого ИИ».

Национальная стратегия признает создание «моделей искусственного интеллекта мирового уровня» и ставит задачу «разработки отечественных открытых библиотек искусственного интеллекта» и «создания на территории Российской Федерации российских репозиториев данных и решений в области искусственного интеллекта».

Так формируется чистый технологический стек — от данных до модели — как элемент государственной политики. Модели, такие как YandexGPT и GigaChat, представляют собой независимую, суверенную экосистему. Конкуренция по количеству параметров с последними моделями OpenAI отходит на второй план. Преимуществом в данном контексте становится возможность полного аудита и контроля.

Эти модели могут быть целенаправленно дообучены или переобучены с нуля на верифицированных суверенных датасетах. Так продукт становится полностью прозрачным и юридически безупречным, а если разработчик может предоставить полный аудит происхождения данных, то это снимает опасения о скрытых бэкдорах или служении интересам другой державы. Западные компании, обремененные своим технологическим наследием, уже не могут создать подобного.

Таким образом, сочетание возможности спроектировать когерентное законодательство, доступа к суверенным датасетам и наличия суверенных технологических платформ формирует уникальную и труднокопируемую стратегическую позицию, позволяющую России предложить миру продукт, отвечающий на главный дефицит новой эпохи — дефицит доверия.

Что может входить в практическую методику аудита ИИ для с точки зрения получения определенных гарантий его доверия?

1. Прозрачность происхождения модели: мы должны иметь документацию, описывающую, кто разработчик, на каких данных и в какой инфраструктуре модель обучали, какие ограничения и известные риски существуют. По сути речь идет о перечне используемых компонентов, библиотек, предобученных моделей, датасетов. Хотя, зная, как пишется сегодня код, ждать еще и документирования моделей, — это утопия вдвойне.

2. Анализ модели на закладки и аномалии: используются ли специализированные инструменты, которые ищут необычные структуры слоев, аномальные распределения весов, нетипичное поведение на искусственных тестах. 3. Red teaming и функциональное тестирование: против ИИ надо эмулировать систематические атаки jailbreak-промптами, реализовывать попытки спровоцировать запрещенные сценарии, проводить тестирование на устойчивость, честность, безопасность по заранее согласованным метрикам.

4. Проверка процессов MLOps / MLSecOps: кто имеет доступ к данным и к весам модели, как контролируется версионность, кто может «подменить» модель на этапе внедрения.
Алексей Лукацкий
Бизнес-консультант по информационной безопасности, Positive Technologies

Экспортный гамбит: «доверенный ИИ» как геоэкономический продукт

Внутреннего рынка России недостаточно для окупаемости разработки описанных выше моделей, поэтому экспорт является условием выживания отрасли. Вектор этого гамбита прямо указан в российской Национальной стратегии. Раздел «Международное сотрудничество» ставит задачи «продвижения за рубежом отечественных технологий искусственного интеллекта, включая доверенные», «формирования “единого пространства” доверенных технологий искусственного интеллекта при лидирующей роли Российской Федерации» и укрепления позиций в рамках ЕАЭС, ОДКБ, ШОС, сотрудничества в форматах БРИКС. Стратегия даже предусматривает предоставление государствам-партнерам доступа к российским большим фундаментальным моделям. Таким образом, экспорт «доверенного ИИ» на рынки Глобального Юга является задекларированной государственной стратегией.

Драйверы спроса: технологический суверенитет как доктрина

Целевые рынки для такого продукта — в первую очередь страны Глобального Юга (Персидский залив, Юго-Восточная Азия, Латинская Америка, Африка), не обладающие собственным потенциалом для создания фундаментальных моделей и ищущие альтернативу как американской, так и китайской технологической зависимости. Они опасаются не столько неэтичности, сколько скрытых закладок, санкционных рисков и юридической уязвимости американских технологий.

Российские решения прошли проверку реальностью сильнейшего санкционного давления. Они доказали независимость от зарубежных платформ, отсутствие «закладок» и бэкдоров. Многие страны, которые ранее ориентировались на западные или китайские продукты, увидели уязвимость своей критической инфраструктуры. Спрос смещается: партнерам нужны не просто технологии, а архитектуры, доказавшие свою безопасность в условиях агрессивной внешней среды.
Александр Павлов
Главный управляющий партнер по развитию ИИ, ВЭБ.РФ

Кейс 1: ОАЭ как эталонный рынок

Национальная стратегия ОАЭ до 2031 года является прямой иллюстрацией спроса на «доверенный ИИ». Страна ставит цель «стать мировым лидером в области ИИ», но признает важную уязвимость: «ОАЭ — молодая страна, которая еще не создала сильной академической традиции, чтобы обеспечить поток исследователей мирового класса. Ей придется искать другие пути для доступа к исследовательским талантам». Стратегия ОАЭ — это осознанное привлечение внешних технологий и талантов для построения собственной экосистемы (UAE Minister of State For Artificial Intelligence Office, 2018). Основные цели стратегии напрямую соответствуют ценностному предложению российского «доверенного ИИ»: стать «испытательным полигоном для ИИ», предоставив инфраструктуру и данные; обеспечить «сильное управление и эффективное регулирование»; создать собственный бренд «UAI» со «знаком одобрения» для «высококачественных, этичных ИИ-компаний».

Для ОАЭ импорт российского предложения — это ускоренный путь к реализации собственной национальной стратегии и возможность получить верифицированную базовую модель, на основе которой можно строить локальные решения и сертифицировать их по собственному стандарту «UAI», не импортируя при этом юридические риски из США.

Кейс 2: Саудовская Аравия как стратегический акселератор

Национальная стратегия Саудовской Аравии по данным и ИИ (NSDAI) идет еще дальше, прямо декларируя абмицию глобального экспорта. Финальная цель стратегии на 2030 год — «конкурировать на международной арене в качестве ведущей экономики, использующей и экспортирующей данные и ИИ» (Saudi Data & AI Authority, 2020).

Для достижения этой цели стратегия предусматривает создание «наиболее благоприятного законодательства для бизнеса и талантов в сфере данных и ИИ» и привлечение инвестиций в размере 75 млрд саудовских риалов ($20 млрд). Российский «доверенный ИИ» в этом контексте выступает как стратегический акселератор для национальных амбиций Саудовской Аравии в создании собственных экспортных продуктов.

Кейс 3: Индия как системный строитель альтернативы

Пример системного государственного строительства полноценного суверенного ИИ-стека — стратегия Индии. Государство финансирует масштабную программу и обеспечивает ее ресурсами, индийские власти стремятся к полной технологической независимости. В марте 2024 года утверждена национальная миссия IndiaAI с бюджетом более $1,2 млрд. В 2025 году объявлено о создании собственной вычислительной инфраструктуры из 18,7 тысячи GPU, включая передовые чипы Nvidia H100 и H200. Прямо поставлена задача разработки собственных фундаментальных моделей, сопоставимых с ChatGPT. Запущена Национальная политика по управлению данными, направленная на создание собственной юрисдикции для данных.

Индия не ищет, у кого купить готовые решения, она строит свои. Спрос на «доверенный ИИ» здесь — это потребность в технологическом партнерстве для построения собственной независимой экосистемы. Россия может поставлять методологии, стандарты и компоненты технологического стека. Совместная работа ускорит индийские планы и заложит основы единых стандартов БРИКС+ в этой области.

Кейс 4: Бразилия и дефицит ресурсов

Национальная стратегия Бразилии вскрывает основную уязвимость многих стран Глобального Юга: разрыв между амбициями и ресурсами. Страна приняла принципы ОЭСР по ответственному ИИ и запустила Национальную инновационную сеть для ИИ, стремясь построить собственную экосистему. Однако в документе стратегии прямо признается колоссальный инвестиционный разрыв: «В 2019 году, пока США инвестировали в ИИ-стартапы $224 млн, а Китай — $45 млн, Бразилия инвестировала всего $1 млн» (McFarland, 2021).

Растет спрос на стратегическое партнерство для устранения технологического отставания. Бразилия ищет способ ускорить развитие собственных исследовательских центров и стартапов (Mari, 2020). Российское предложение позволит стране не тратить дефицитные ресурсы на создание фундаментальных моделей с нуля, открывая возможность сразу перейти к «продвижению бразильских технологий за рубежом».

Кейс 5: ЮАР и угроза стагнации

Для страны ИИ — это «либо экономическое спасение, либо продолжение стагнации». Аналитики Inclusive Society Institute указывают, что ЮАР, с ее ограниченным бюджетом и социальными вызовами, «должна принять нетрадиционные стратегии, чтобы совершить скачок и конкурировать на мировой арене». В отличие от Бразилии, которая говорит о дефиците инвестиций, ситуация в ЮАР сигнализирует об экзистенциальной угрозе и необходимости «умного подхода» для выживания в новой технологической гонке (Mashishi, 2023, Inclusive Society Institute, 2024).

Российское предложение с его двухуровневой архитектурой является именно таким нетрадиционным решением. Оно позволяет ЮАР сразу перейти к разработке прикладных решений для своих ключевых секторов (горнодобывающая промышленность, производство) и реализации национальной цели по созданию 100-300 ИИ-стартапов. Это прямой ответ на запрос о «нетрадиционной стратегии» для предотвращения стагнации.

Оценка объема рынка: карта возможностей

Спрос на технологический суверенитет подкрепляется масштабом рынка. Потенциальный объем рынка для «чистого ИИ» в ключевых регионах Глобального Юга к 2030 году является стратегически значимым:

Спрос на технологический суверенитет подкрепляется масштабом: прогнозируемый объем рынка ИИ на Ближнем Востоке и Северной Африке (MENA) к началу 2030-х годов достигнет $34 млрд (Saleh, 2025), в Азиатско-тихоокеанском регионе (APAC) ожидается рост до $351 млрд (Statista, 2025), в Латинской Америке — до $12 млрд (Statista, 2025). Рынок БРИКС оценивается в $269 млрд (Statista, 2025), а с учетом объединения «БРИКС+» потенциальное предложение «чистого ИИ» расширяется как на новых членов, так и на страны-партнеры.

Для значительной доли крупных экономик юридическая предсказуемость и суверенитет становятся ключевыми конкурентными преимуществами. Даже захват небольшой доли этого рынка способен окупить все инвестиции в создание «чистого» технологического стека.

Ценностное предложение: архитектура доверия

Помимо технологии, продукт «чистый ИИ» продает еще и доверие, которое строится на трех компонентах:

  • Юридическая неуязвимость. Модель, обученная на полностью лицензированных или суверенных данных, устойчива к искам от западных правообладателей. Это стабильный актив.
  • Аудируемая прозрачность. Полный аудит происхождения данных снимает опасения о скрытых бэкдорах или служении интересам другой державы.
  • Диверсификация зависимости и выход из-под юрисдикции США. Импортируя «доверенный» российский ИИ, страна получает возможность диверсифицировать свою технологическую зависимость и выйти из-под юрисдикции США с их регуляторной непредсказуемостью и санкционными рисками.
Создание суверенного ИИ требует гигантских мегаинвестиций и устойчивой энергетики, так как вычисления потребляют колоссальные ресурсы. В новых реалиях для России открывается возможность экспорта не сырья — энергетики и холода, которые трудно транспортировать, — а именно чистых вычислений. Самые энергозатратные задачи класса training (обучение моделей) не требуют мгновенного отклика. Поэтому инфраструктурные объекты могут размещаться, например, на территории российского трансарктического транспортного комплекса. Благодаря климату и дешевой энергии мы можем давать странам БРИКС доступ к российским мощностям как к новому типу экспортной продукции.
Александр Павлов
Главный управляющий партнер по развитию ИИ, ВЭБ.РФ

Для российских разработчиков сознательная отстройка от пагубной модели «нарушай и плати» — это перспективная геоэкономическая стратегия. «Чистые» ИИ-модели имеют уникальный экспортный потенциал для нового, многополярного мира. Ценностное предложение может быть материализовано в виде сертификата происхождения данных — юридически значимого документа, подтверждающего чистоту обучающей выборки и соответствие модели национального кодекса оборота данных. Так формируется верифицируемый стандарт.

Экспорт модели разработки

Экспортный продукт должен иметь двухуровневую архитектуру для решения языковой проблемы и обеспечения реального контроля для страны-клиента:

  • Ядро («чистый стек»). Экспортируется базовая модель, обученная на юридически верифицированных, мультиязычных открытых датасетах (например, The Pile) и обогащенная суверенными российскими данными. Это обеспечит юридическую чистоту и мультиязычность ядра.
  • Адаптация (трансфер методологии). Вместе с ядром экспортируется фреймворк и методология для безопасного дообучения этой базовой модели на локальных датасетах страны-клиента.
Сегодня никто в мире не умеет математически доказывать, что в большой нейросети нет закладок. Полная прозрачность как «математическое доказательство честности» — утопия. Но это не значит, что «доверенный ИИ» невозможен. Это значит, что доверие строится как в криптографии: на совокупности факторов. Прозрачный жизненный цикл, независимый аудит, поиск вредоносного поведения, изолированная эксплуатация и ответственность вендора. «Доверенный ИИ» — это не магия, а дисциплина процессов.
Алексей Лукацкий
Бизнес-консультант по информационной безопасности, Positive Technologies

Таким образом, вместо «черного ящика» страна-покупатель получает технологию и знания для создания собственной суверенной ИИ-инфраструктуры, решая языковую проблему и получая реальный контроль над технологией.

Стратегические риски и контрмеры

При реализации необходимо учитывать значимые стратегические риски концепции:

  1. Риск исполнения. Декларации Национальной стратегии могут разойтись с реальностью. Бюрократические барьеры, межведомственная разобщенность или недостаток финансирования способны затормозить создание «чистых» датасетов и «доверенных» моделей. Для управления этим риском потребуется создание надведомственного проектного офиса с прямым мандатом на реализацию стратегии.

  2. Риск конкурентного ответа. Западные компании не статичны, они могут провести «очистку» своих активов, заключив глобальные сделки с правообладателями. Китай обладает несопоставимым объемом данных и собственными передовыми моделями (DeepSeek, Qwen3, Kimi, Wu Dao, ChatGLM), однако его внутренняя регуляторная среда непрозрачна для внешних игроков. Конкурентное преимущество России — в предсказуемости и когерентности единой правовой юрисдикции, которая может стать основой для открытых международных стандартов. Фактор времени является решающим: китайская модель развития ИИ, основанная на быстром копировании и масштабировании открытых архитектур, позволяет им сокращать технологический разрыв в течение месяцев. Необходимо форсировать разработку и выход на целевые рынки до реакции конкурентов.

  3. Геополитический риск. Существенная уязвимость стратегии — само понятие «доверенный ИИ» российского происхождения в условиях глобальной геополитической напряженности. Конкуренты будут активно использовать нарратив о «троянском коне» и угрозах безопасности. Целесообразно противопоставить этому нарративу открытые международные стандарты аудита и сертификации, возможно, на площадке БРИКС+, где российские модели могут быть верифицированы независимыми экспертами из стран-партнеров.

  4. Риск незрелости рынка. Потенциальные клиенты на Глобальном Юге могут не до конца осознавать юридические риски «токсичных» западных моделей. Спрос следует активно формировать. Требуются целенаправленные информационные и дипломатические кампании для разъяснения рисков западных ИИ-активов и продвижения российских стандартов «доверенного ИИ» на площадках БРИКС+, ШОС и других международных форумах. Важно создание прецедентов, демонстрирующих уязвимость западных моделей, и активное их освещение.

Принципиально важно осознавать парадокс: сама архитектура российского решения, основанная на суверенных данных и государственном контроле, является его главным преимуществом на рынках Глобального Юга и одновременно — непреодолимым барьером для рынков Запада. Для правительств, стремящихся к технологическому суверенитету, государственный контроль — это гарантия доверия. Для западной либеральной модели — это определение угрозы. Доверие перестает быть универсальной ценностью и становится геополитически детерминированным атрибутом. Успех стратегии заключается не в попытке убедить весь мир, а в точном таргетировании тех игроков, чье представление о ценностях совпадает с предлагаемой моделью.

Регуляторные песочницы, но без их европейской перегрузки – упрощенные тестовые режимы для стартапов и стран-партнёров, чтобы обкатать решения, не боясь немедленно попасть под многомиллионные штрафы. В этой части нам есть чем поделиться с партнерами из дружественных стран.
Алексей Лукацкий
Бизнес-консультант по информационной безопасности, Positive Technologies

Заключение

«Первородный грех» данных — сделанный западной ИИ-индустрией выбор, приводящий к регуляторному хаосу, корпоративному цинизму и эрозии доверия; эти последствия носят системный характер и не могут быть устранены точечными мерами. Они создали глобальный спрос на более предсказуемые инструменты.

Успех российского предложения зависит от способности спроектировать и реализовать альтернативную, суверенную архитектуру доверия, в которой гонка параметров моделей становится второстепенной. Московский эксперимент в здравоохранении является работающим прототипом. Заимствование чужих технологических стеков с их скрытыми рисками уступает место экспорту собственной юрисдикции как основного продукта.

* Компания Meta признана в РФ экстремистской организацией и запрещена.

Дополнительные материалы

Авторы

Футуролог, управляющий партнер, MINDSMITH
Софья Майорова
Менеджер проектов, MINDSMITH
Илья Якимчук
Старший аналитик, MINDSMITH

Эксперты

Валерий Федоров
Генеральный директор, ВЦИОМ
Александр Павлов
Главный управляющий партнер по развитию ИИ, ВЭБ.РФ
Алексей Лукацкий
Бизнес-консультант по информационной безопасности, Positive Technologies
Антон Горелкин
Депутат Государственной Думы РФ, Председатель правления РОЦИТ

Цитирование

Руслан Юсуфов, Софья Майорова, Илья Якимчук. Архитектура доверия: «экспортный гамбит» России в ответ на «первородный грех» западного ИИ // MINDSMITH. 2026. URL: https://mindsmith.ru/insights/vacuum-of-trust/. Дата публикации: 12.02.2026.