a16z: Почему следующая миллиардная аудитория ИИ получит доступ через сети доверия

作者:Сакинa Арсивала, исследователь a16z; источник: a16z crypto; перевод: Шоу Золотая экономика

YouTube的启示:内容是一种地缘政治武器

Много лет назад я был руководителем международного поискового продукта Google, а затем возглавил международное расширение YouTube, запустив продукт в 21 стране всего за 14 месяцев. Я занимался не только локализацией продукта, но и построением местных партнерских отношений в области контента, находя пути через многочисленные правовые, политические и рыночные минные поля. В последнее время я также отвечал за управление здоровьем сообщества Twitch (доверие и безопасность). В течение своей карьеры я также основал две стартап-компании.

Сегодняшняя сфера искусственного интеллекта (AI) удивительно похожа на ранние этапы роста Google и YouTube. Моя карьера позволила мне осознать один факт: глобализация — это не функция продукта, а геополитическая игра. Самый глубокий урок заключается в том, что продвижение по каналам никогда не было чисто технической проблемой. Рост зависит от местных партнеров, культурных посредников и надежных лидеров общественного мнения, которые строят мосты между глобальными платформами и местными пользователями.

Я стал свидетелем события с запретом авторских прав GEMA в Германии: одна организация по защите авторских прав фактически исключила всю страну из панъевропейской рекламной кампании YouTube. Я также пережил скандал с арестом за богохульство в Таиланде: как представитель YouTube я столкнулся с риском ареста из-за контента, признанного оскорбляющим тайского короля, и не мог даже проехать через страну. Я был свидетелем того, как Пакистан отключил интернет по всей стране из-за запрета одного видео. Я также помню, как из-за конфликта между глобальным алгоритмом и местными религиозными табу наш офис в Индии подвергся нападению.

С тем, с чем нам действительно нужно справляться, это никогда не было просто вопросом политики или инфраструктуры, а барьерами доверия.

На каждом рынке кто-то должен сначала понести затраты, прояснить, какой контент безопасен, приемлем и ценен, чтобы пользователи начали участвовать. Эти затраты будут накапливаться, и со временем они создадут налог на доверие: небольшая группа берет на себя первоначальные расходы, а затем все делят их.

Сегодня аналогичные противоречия снова проявляются в сфере искусственного интеллекта, но ситуация более серьезная, эволюция быстрее, а последствия более заметные. Федеральное правительство США и Anthropic оказались в тупике, что вызвало общественное обсуждение; OpenAI сталкивается с все большим количеством проверок из-за своих отношений с государственным сектором. Мы свидетели изменения: степень принятия пользователями теперь больше не зависит только от полезности, а влияние идеологии становится все более глубоким. В такой обстановке доверие очень хрупкое, и даже малейший крах доверия может привести к массовой быстрой потере пользователей.

Google значительно увеличивает инвестиции в свою стратегию глубокого доверия, используя знакомство пользователей с экосистемами Workspace и поиска для выхода на рынок, но глобальная ситуация становится все более разделенной. Строгие регуляторные ограничения ЕС, жесткая конкуренция в развитии ИИ в Китае и нарастающий национализм в области ИИ заставляют весь мир оставаться на высокой готовности.

Уроки 2026 года очевидны: доверие институций и культурное признание теперь неразрывно связаны с самим продуктом. Без доверия в качестве фундамента невозможно построить интеллектуальную операционную систему.

Это и есть суверенные барьеры — структурные границы, где глобальный искусственный интеллект сталкивается с местным контролем. С точки зрения продукта это проявляется в более прямой форме: барьеры доверия.

Все расширение глобальных систем искусственного интеллекта в конечном итоге столкнется с этой стеной. На этой критической отметке степень принятия пользователями больше не зависит от технических возможностей, а зависит от того, доверяют ли пользователи, учреждения и правительства данной системе в своем контексте.

Интернет когда-то был безграничным. Искусственный интеллект таковым не будет.

探索者时代的落幕

Первые миллиарды пользователей искусственного интеллекта были исследователями и технооптимистами. Но эпоха исследователей уже закончилась. За последние три года мы находимся в эпохе конструктивного проектирования и цифровой алхимии, когда пользователи открывают приложения, такие как ChatGPT и Claude, как будто посещают цифровые храмы, чтобы своими глазами увидеть чудеса генеративного интеллекта. В эту эпоху единственным важным показателем является лишь способность модели: кто занимает первое место в последних тестах? У кого наибольшее количество параметров?

Но, вступая в 2026 год, костры эпохи исследователей начинают гаснуть. Мы больше не создаем игрушки для любопытных, а обращаемся к интеллектуальным операционным системам — тем невидимым, повсеместным каналам, которые обеспечивают ежедневную работу индивидуальных предпринимателей в Сан-Паулу, Бразилия, и работников общественного здравоохранения в Джакарте, Индонезия.

Эти пользователи не исследователи, а практичные потребители. Они не хотят общаться с «призраками» в машинах, они просто хотят инструмент, который поможет им решить различные препятствия в реальной жизни. Именно это и есть настоящий момент преодоления разрыва для следующего миллиарда пользователей. И именно на этом не до конца освоенном краю мечта Кремниевой долины о глобальном API сталкивается с самой жестокой реальностью этого времени: суверенными барьерами.

Ключевое изменение заключается в том, что распространение искусственного интеллекта теперь не является вопросом способности модели, а вопросомраспространения и доверия. Передовые лаборатории будут продолжать улучшать производительность модели, но приход следующего миллиарда пользователей не будет зависеть от того, что какая-то модель показала лучшие результаты в тестах, а от того, что искусственный интеллект достиг их через учреждения, создателей и сообщества, которым они уже доверяют.

现实:AI成为国家基础设施命题

В 2026 году основной вызов отрасли больше не в том, чтобы сделать модели более умными, а в том, чтобы получить разрешение на доступ к ним. Суверенные барьеры — это границы, на которых универсальный интеллект встречается с национальной идентичностью. Глядя на мир, эти барьеры уже начинают проявляться: требования локализации данных, национальные программы вычислительной мощности ИИ и проекты моделей, возглавляемые правительствами таких стран, как Индия, ОАЭ и Европа. Первоначальная политика облачной инфраструктуры быстро эволюционирует в политику интеллектуального суверенитета. В рамках этой политики государства отказываются быть «данными колонией», требуя, чтобы интеллектуальные системы, обслуживающие их граждан, работали на суверенных данных своей страны, сохраняли местную культуру и уважали национальные границы.

Когда вы видите, как генеральные директора Google (Сундар Пичаи), OpenAI (Сэм Альтман), Anthropic (Дарио Амодеи), DeepMind (Демис Хасабис) появляются на сцене вместе с премьер-министром Индии Нарендрой Моди на саммите о влиянии ИИ в Индии в 2026 году, вы видите реальное проявление суверенных барьеров. Видение M.A.N.A.V., предложенное премьер-министром Моди (этические системы, подотчетное управление, национальный суверенитет, доступный ИИ, надежные системы), дает четкий сигнал: если передовые лаборатории попытаются напрямую выйти на потребителей, они в конечном итоге будут исключены из регулирования. А доверие — это единственная валюта, позволяющая пересечь эти границы.


网络效应减弱困境与为何它倒逼全新策略

В отличие от социальных платформ, где каждая новая пользовательская единица увеличивает ценность для всех остальных пользователей, ценность искусственного интеллекта во многом локализована. Моя первая тысяча подсказок не сделает систему более ценной для вас. Хотя данные могут оптимизировать модель, пользовательский опыт всегда остается персонализированным, а не социальным. ИИ — это личный инструмент, который может быть эмоционально окрашен, но его суть — это инструмент практического использования.

Это создает структурную проблему: ИИ не может полагаться на сетевые эффекты, которые привели к успеху предыдущего поколения платформ. В условиях отсутствия исходной социальной графики отрасль может попасть в цикл высоких затрат, постоянно преследуя ранних пользователей, активных игроков и технологических элит. Эта стратегия работала в эпоху исследователей, но не может масштабироваться, чтобы охватить следующие два миллиарда пользователей.

Более того, эта модель полностью потеряет силу перед суверенными барьерами. Потому что когда сетевые эффекты слабы, доверие не формируется само по себе, а должно быть принесено извне.

转型:从网络效应转向信任效应

Если искусственный интеллект не может полагаться на сетевые эффекты для распространения, он должен опираться на другую силу: сеть доверия. Это ключевое изменение:

От получения пользователей к расширению полномочий посредников

YouTube смог масштабироваться, потому что воспользовался существующей сетью человеческого доверия. И ИИ должен сделать то же самое. Вместо того чтобы пытаться установить прямые отношения с миллиардами пользователей, стратегией победы должно быть:

  • Расширение полномочий тех, у кого уже есть пользовательские отношения;

  • Использование доверия, которое они уже накопили;

  • Распространение интеллектуальных возможностей через эти каналы.

Почему это критически важно

В мире, сформированном суверенными барьерами:

  • Каналы распределения ограничены;

  • Модель прямого выхода на пользователей слаба;

  • Доверие локализовано, а не глобализовано.

Без сильных сетевых эффектов искусственный интеллект не сможет масштабироваться за счет силы, он должен полагаться на доверие для проникновения. Искусственный интеллект не имеет сетевых эффектов, у него есть эффект доверия.

解决方案:中介时代来临

Как YouTube смог утвердиться на международных рынках? Не благодаря более совершенным проигрывателям, и не просто локализации текстов интерфейса. Ключ к победе заключался в том, чтобы стать предпочтительной платформой для уже имеющегося местного доверительного сообщества. В каждом рынке начальной точкой принятия пользователями является не сам YouTube, а точки привязки идентичности — те, кто уже владеет культурным дискурсом:

  • Фанатская страница Болливуда собирает редкие кадры с Шахрукхом Ханом для общины эмигрантов в Дубае

  • Американские аниме-фанаты создают глубокую экосистему контента, который не охватывается мейнстримными СМИ

  • Местные комики, учителя и создатели монтажей превращают глобальный контент в формы, соответствующие культурному восприятию

Эти создатели не просто загружают видео, они интерпретируют интернет для своей аудитории, выступая в роли доверительных посредников и строя мосты между зарубежными платформами и местными пользователями. Успех YouTube заключается в том, что он стал невидимой инфраструктурой, поддерживающей эти точки привязки идентичности.

被忽视的核心逻辑:直面消费者模式撞上主权壁垒

Сегодня большинство AI-компаний все еще придерживаются мышления о прямом выходе на потребителей: создать более совершенные модели → представить в виде чата → напрямую получить пользователей.

Эта модель эффективна в краткосрочной перспективе, но трудно долгосрочна. Потому что на высоком уровне трения пользователи не примут новые технологии напрямую, а примут их через тех, кому доверяют.

Глобальная экспансия YouTube не зависела от убеждения миллиардов пользователей по одному, а от расширения полномочий тех, кто уже завоевал доверие аудитории. Это истинный смысл невидимой инфраструктуры: вы не обладаете пользовательскими отношениями, вы поддерживаете их. А на уровне масштабирования эта модель имеет более сильную защитную стену.

Переход от чата к интеллектуальным агентам: расширение полномочий доверительных посредников

Это и есть ключ к переходу от интерфейса чата к интеллектуальным агентам. Чат — это инструмент, ориентированный на личность, тогда как интеллектуальный агент — это рычаг для посредников. Если применить идею Амита Вора из Anthropic — «создавать продукты для самых уставших людей», то в многих рынках такими людьми являются конвертеры доверия:

  • Образовательные работники, адаптирующие зарубежные идеи

  • Предприниматели, работающие с местной бюрократией

  • Лидеры сообществ, справляющиеся с избытком информации

Путь к победе — это решение проблем задержки доверия, то есть разрыва между глобальными интеллектуальными возможностями и местными практическими сценариями. Это требует практической системы поддержки интеллектуальных агентов:

  • Для образовательных работников: Sora / GPT-5.2 переписывает курсы — заменяет аналогии с американским футболом на крикет, сохраняя основной смысл, но адаптируясь к местной культуре.

  • Для индивидуальных предпринимателей: интеллектуальный агент может не только интерпретировать налоговые формы Сингапура, но и завершить заполнение и подачу через местное API.

  • Для лидеров сообществ: добавляет функцию контекстной памяти в WhatsApp — извлекает структурированные действия из десяти тысяч сообщений, сохраняя важную информацию и поддерживая нормы сообщества.

Ключ к жизнеспособной модели: решение последней мили задержки доверия

Чтобы понять, почему эта модель может масштабироваться, необходимо понять задержку доверия. Во многих регионах мира узким местом является не доступ к технологиям, а время, риск и неопределенность, необходимые для создания доверия. Распространение технологий не зависит от рекламы, а от поддержки.

Ошибка большинства AI-компаний заключается в том, что они пытаются масштабировать доверительный налог через брендинг, распределение или шлифовку продукта, но доверие нельзя масштабировать таким образом.

Самый быстрый путь — это аутсорсинг доверительного налога тем, кто уже понес эти затраты — местным создателям, образовательным работникам и операторам. Они уже прошли через ошибки для своей аудитории, поняли, что эффективно, а что нет в местных условиях, и взяли на себя риски.

Расширив полномочия этих доверительных посредников:

  • Стоимость привлечения пользователей стремится к нулю: распространение основано на существующих сетях доверия;

  • Ценность жизненного цикла пользователя повышается: практические функции соответствуют местным потребностям, а не унифицированы;

  • Скорость распространения ускоряется: доверие передается напрямую, не требуя накопления с нуля.

Компании получат глобальную команду продаж без затрат, чья надежность, эффективность и глубина внедрения намного превышают любые централизованные стратегии продвижения. Вы больше не создаете продукты для пользователей, а предоставляете рычаги тем, кому пользователи уже доверяют.

Это именно путь глобальной экспансии YouTube, и единственный способ, которым искусственный интеллект может преодолеть суверенные барьеры.

主权数据仓:地缘护城河

Технический оптимизм, пропагандируемый Марком Андресеном, в конечном итоге не ведет к противостоянию регулированию, а к продуктовому подходу к регулированию. Конкурируя с DeepSeek в Китае и Kimi, победа не достигается игнорированием границ, а контролем данных.

Что такое суверенное хранилище данных? Это приоритетный локализованный экземпляр модели, работающий внутри цифровой инфраструктуры (DPI) страны.

  • Геополитическая защита: предоставляя таким странам, как Индия и Бразилия, цифровой суверенитет над моделями, весами и данными, мы кардинально меняем расклад сил. Интеллектуальные возможности больше не управляются посредниками с зарубежных платформ, а управляются автономно в пределах границ. Это не прямое «блокирование» внешних противников, а значительное повышение их затрат на влияние, снижение зависимости от внешних источников, уменьшение риска контроля, извлечения данных или одностороннего вмешательства.

  • Точки привязки идентичности: связывая модели с местной культурой и юридической реальностью, создается защитная стена, которую универсальный искусственный интеллект не сможет преодолеть.

  • Циклы обратной связи: решение таких очень локализованных вопросов, как разрешение на налоговые сборы в Малайзии, не отвлекает, а служит ускорителем модели. Это обеспечивает культурную гибкость базовой модели, сохраняя ее на мировом уровне.

Существует реальное противоречие. Видение искусственного интеллекта заключается в достижении универсального интеллекта, но тенденция к суверенизации подталкивает всю экосистему к фрагментации. Если каждая страна будет строить свою технологическую стек, мы столкнемся с риском несовместимости систем, неравномерных стандартов безопасности и дублирования ресурсов. Передовые лаборатории сталкиваются не только с вызовом масштабирования интеллекта, но и с проектированием архитектуры, которая может обеспечивать локальное управление, не ослабляя глобальные преимущества координации.

中介时代的三大结构性转变

1. Распространение искусственного интеллекта будет происходить через существующие сети доверия

Искусственный интеллект не будет масштабироваться через независимые приложения, а будет внедряться в платформы мгновенного обмена сообщениями, рабочие потоки создателей, образовательные системы и инфраструктуру малых предприятий — потому что доверие уже было установлено в этих сценариях. В отсутствие сильных сетевых эффектов распространение должно основываться на существующих межличностных сетях.

2. Национальная инфраструктура ИИ станет стандартом

Правительства стран все чаще будут требовать локализованного развертывания моделей ИИ, строительства суверенной вычислительной мощности или прохождения проверок регулирования, что ускорит реализацию архитектуры суверенных хранилищ данных.

3. Экономика создателей перейдет к экономике интеллектуальных агентов

Создатели больше не будут просто производить контент, они будут развертывать интеллектуальных агентов для выполнения реальных задач в своих сообществах. Эти интеллектуальные агенты станут продолжением надежных индивидуумов, унаследуют их репутацию и будут передавать интеллектуальные возможности через сети доверия.

Конечно, существует и другой возможный сценарий будущего: появление одного доминирующего помощника, глубоко интегрированного в операционные системы, браузеры и устройства, который напрямую свяжет пользователей с моделями, полностью обойдя посредников. Если это произойдет, уровень доверия будет непосредственно встроен в этого помощника.

Но исторический опыт указывает на более разнообразный ландшафт. Даже самые доминирующие платформы — от мобильных операционных систем до социальных сетей — в конечном итоге достигают роста через экосистему. Интеллект может быть универсальным, но доверие всегда локализовано. Независимо от того, какая архитектура в конечном итоге победит, основной вызов останется неизменным: распространение ИИ больше не является вопросом модели, а вопросом распространения и доверия.

结论:利基市场才是真正的全球化市场

Самая большая ошибка эпохи исследователей заключалась в том, чтобы считать интеллект стандартизированным товаром — единым глобальным API, который одинаково функционирует как в зале заседаний Манхэттена, так и в деревне в Карнатаке. Суверенные барьеры раскрывают более жестокую правду: интеллект может быть универсальным, но его распространение не таковым.

Национальные и местные учреждения не хотят черного ящика внешней системы, они хотят контроля, способности адаптироваться к сценарию и права формировать интеллект в рамках своих границ. Они хотят не готовые приложения, а базовые каналы — инфраструктуру, системы безопасности и вычислительные мощности, позволяющие гражданам страны строить самостоятельно.

Логика роста 2026 года больше не будет заключаться в поиске универсального пользовательского опыта, а в гибкости продукта — позволяя интеллекту адаптироваться к местным сценариям, регулированию и культуре, не теряя основных способностей. Если мы продолжим стремиться к глобальным потребителям напрямую, мы всегда будем лишь внешним слоем — хрупким, заменимым и подверженным тем же ударам, которые я испытал на YouTube.

Но когда мы сосредоточимся на расширении полномочий посредников, модель полностью изменится: от интерфейса чата к интеллектуальным агентам, от убеждения пользователей к расширению полномочий доверительных посредников, от противостояния регулированию к превращению регулирования в защитную стену.

Масштабирование искусственного интеллекта зависит не от модели, а от доверия.

Победителем в гонке искусственного интеллекта станет не та компания, у которой самый умный модель, а та, которая сможет в десять раз увеличить возможности местных героев — учителей, бухгалтеров, лидеров сообществ. Потому что в конечном итоге интеллект передается в системах, а распространение происходит среди людей.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Горячее на Gate Fun

    Подробнее
  • РК:$2.29KДержатели:2
    0.07%
  • РК:$2.29KДержатели:2
    0.10%
  • РК:$0.1Держатели:1
    0.00%
  • РК:$2.27KДержатели:2
    0.00%
  • РК:$2.27KДержатели:1
    0.00%
  • Закрепить