В Шанхае снова разгорелся Всемирный конгресс по искусственному интеллекту WAIC!
26 июля 2025 года на текущем WAIC собрались более 1200 участников из более чем 30 стран и регионов, среди которых 12 лауреатов премии Тьюринга, Нобелевской премии и других престижных наград, более 80 академиков из Китая и других стран, а также представители нескольких международных ведущих лабораторий.
На открытии 26 июля лауреат Нобелевской премии 2024 года Джеффри Хинтон, признанный мастером в области ИИ, выступил с речью. Этот известный ученый, который всегда придерживался «угрозы ИИ», вновь подтвердил опасности неупорядоченного развития ИИ и призвал к созданию «безопасной сети» для исследований в области ИИ на глобальном уровне.
Кроме того, основатель и генеральный директор популярной в стране AI-стартапа MiniMax Ян Цзюньцзе в своей речи отметил, что всё более мощный ИИ почти не имеет пределов в своем развитии, и с снижением затрат на обучение «будущее ИИ станет более доступным для всех».
В то же время соучредитель и главный технический директор китайской стартап-компании по производству роботов Zhiyuan Robotics, Пэн Чжихуэй (известный как Чжи Хуй Цзюнь), вышел на сцену с продуктом своей компании — роботом Lingxi X2, чтобы представить номер в жанре «сяншэн», что позволило более наглядно продемонстрировать «партнёрские отношения» между роботами и людьми.
Львы или младенцы, оба нуждаются в «присмотре».
Даже несмотря на то, что последовательницы и последователи занимают половину сил в сфере технологий AI в Силиконовой долине, «великий учитель» AI Джеффри Хинтон всегда противоречил коллегам по отрасли, настаивая на «теории угрозы AI».
На конференции WAIC 26 июля Хинтон вновь в своем выступлении выразил обеспокоенность по поводу быстрого развития ИИ.
Описывая развитие технологий ИИ за последние 30 лет и переход к этапу больших моделей, Хинтон считает, что нынешние большие модели понимают язык так же, как и люди.
«Человечество, возможно, является большим языковым моделем и также может создавать иллюзии, порождая множество иллюзорных языков». Это понимание, которое пришло к Хинтону, нельзя не заметить, оно очень соответствует нынешним мемам о «человеке и машине» в социальных сетях.
Однако проблема в том, что по сравнению с человеческим «углеродным мозгом» ИИ, оснащенный «кремниевым мозгом», имеет врожденные преимущества в хранении, копировании и «мгновенной передаче», что означает, что с развитием технологий в отрасли единодушно считают, что появление более умного ИИ, чем человек, — это лишь вопрос времени. А как форма существования эти ИИ, представляющие «интеллекты», безусловно, будут требовать «выживания» и «контроля».
Хинтон считает, что современный ИИ может быть похож на «трехлетнего ребенка», который еще легко поддается манипуляциям со стороны человека, но в будущем ситуация может измениться. Он также сравнил нынешний ИИ с маленьким львом, и в отношении одомашнивания льва есть только два варианта: «либо научить его не нападать на вас, либо уничтожить его».
Согласно текущему прогрессу в области ИИ по всему миру, ни одна страна не может по-настоящему «уничтожить ИИ», остановив развитие технологий. Остался только один путь: миру нужно создать агентство по безопасности ИИ, чтобы обучать ИИ и направлять его на «добро».
«Как обучить ИИ, который не хочет править человечеством, это конечная проблема, с которой сталкивается человечество», - сказал Хинтон в конце.
Некоторые требуют регулирования, другие выступают за “ослабление”.
Выступления такого мастера действительно заставляют задуматься на WAIC, но в Северной Америке, к которой принадлежит Хинтон, это кажется несколько «не очень проницательным». Компании, основанные студентами Хинтона, такие как OpenAI и Anthropic, уже стоят десятки миллиардов долларов, не говоря уже о том, что в последние два года венчурные капитальные инвестиции в стартапы в области ИИ в Силиконовой долине значительно увеличились.
Ярким примером является то, что с увеличением затрат на лоббирование со стороны AI-компаний в американской политике, регулирующие органы США официально ослабили контроль над развитием AI.
Также на этой неделе, 23 июля по местному времени в США, тогдашний президент Дональд Трамп опубликовал план действий по искусственному интеллекту (The AI Action Plan). В этом документе американские регуляторы определили, как обеспечить лидерство США в области ИИ с точки зрения данных, стандартов и кадров:
Увеличьте инвестиции в НИОКР (Invest in R&D): значительно увеличить долгосрочные инвестиции федерального правительства в фундаментальные и прикладные исследования в области ИИ, особенно в таких областях, как ИИ следующего поколения, безопасность ИИ и надежный ИИ.
Освобождение данных (Unleash AIData Resources): обеспечить безопасный доступ к огромным наборам данных, принадлежащим федеральному правительству, для исследователей ИИ и общественности, предоставляя высококачественное «топливо» для обучения моделей.
Установление технических стандартов (Установить технические стандарты AI): Под руководством правительства, совместно с промышленностью и академическими кругами, разрабатывать глобальные эталоны, стандарты и нормы AI технологий, чтобы гарантировать, что AI системы безопасны, надежны, объяснимы и справедливы.
培养AI人才 (Cultivate an AI-Ready Workforce): Реформа STEM-образования, продвижение системы ученичества и программ переподготовки, привлечение и удержание лучших специалистов в области ИИ со всего мира для обеспечения кадровых ресурсов для экономики ИИ.
Укрепление международного сотрудничества (Strengthen International Collaboration): Создание альянсов в области ИИ с союзниками и партнерскими государствами, совместная разработка правил для противодействия злоупотреблениям ИИ со стороны «авторитарных государств» и содействие открытым и демократическим приложениям ИИ.
Защита ключевых технологий (Protect Key Technologies): Укрепление защиты ключевых ИИ технологий, алгоритмов и аппаратного обеспечения (особенно полупроводников) в США с помощью таких мер, как экспортный контроль и проверка инвестиций, чтобы предотвратить утечку технологий к стратегическим конкурентам.
Можно увидеть, что США дают зеленый свет развитию технологий ИИ, одновременно используя геополитические проблемы, чтобы помешать конкурентам и себе находиться на одной стартовой линии.
Пришло время “опыта” для роботов
На текущей выставке WAIC humanoidные роботы безусловно являются самым привлекательным акцентом, без исключений.
На главной сессии форума сооснователь Zhiyuan Robotics «Чжи Хуй Цзюнь» Пен Чжи Хуэй представил продукт Zhiyuan Lingxi X2 и провел на сцене «человек-машина» стендап.
Сяншэн основывается на искусстве рассказа, изучения, шуток и пения, а роботы и люди акцентируют внимание на «вечном понимании». Lingxi X2 на сцене заявляет, что сотрудничество между людьми и роботами должно основываться на «консенсусе». Но как установить консенсус между роботами и людьми и преодолеть ключевые моменты сотрудничества человека и машины? Чжихуйцзюнь говорит, что это область, в которую компания должна углубиться, и важно идти вместе с большим количеством единомышленников.
Таким образом, Чжихуэй Цзюнь также на месте представил открытый проект «智元灵渠 OS», надеясь вместе с большим количеством людей продвигать текущую интеграцию экосистемы роботизированных систем и прорывы в новых технологиях воплощённого интеллекта.
Похоже, что для того, чтобы поддержать воплощенный интеллект, на конференции в формате видеосвязи выступил лауреат премии Тьюринга 2024 года, профессор кафедры компьютерных наук Университета Альберты в США Ричард Саттон, который считает, что в настоящее время данные, используемые для обучения больших моделей, практически исчерпаны. Но не стоит отчаиваться, потому что это означает, что наступает следующая эпоха ИИ — эпоха опыта (the Era of Experience).
В отличие от прошлых данных, использованных для обучения ИИ с помощью «статичных» данных, в будущем ИИ сможет, как человеческий младенец, получать знания и развивать способности через «опыт» внешней среды и объектов. Хотя до этой цели еще довольно далеко, в настоящее время множество стартапов в области робототехники действительно продолжают обучение и обучение в «физическом мире».
Это также объясняет, почему такие ведущие ученые отрасли, как Ли Фэйфэй, уже перешли от «ИИ» к «физическому ИИ», подчеркивая, что для того чтобы искусственный интеллект действительно вошел в реальный мир, его необходимо понимать и изучать с трехмерной точки зрения.
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
WAIC 2025: ИИ определенно продолжит расти, избежать превращения в "конечного злодея" — это человечная проблема.
Автор: Цзинь Юй
В Шанхае снова разгорелся Всемирный конгресс по искусственному интеллекту WAIC!
26 июля 2025 года на текущем WAIC собрались более 1200 участников из более чем 30 стран и регионов, среди которых 12 лауреатов премии Тьюринга, Нобелевской премии и других престижных наград, более 80 академиков из Китая и других стран, а также представители нескольких международных ведущих лабораторий.
На открытии 26 июля лауреат Нобелевской премии 2024 года Джеффри Хинтон, признанный мастером в области ИИ, выступил с речью. Этот известный ученый, который всегда придерживался «угрозы ИИ», вновь подтвердил опасности неупорядоченного развития ИИ и призвал к созданию «безопасной сети» для исследований в области ИИ на глобальном уровне.
Кроме того, основатель и генеральный директор популярной в стране AI-стартапа MiniMax Ян Цзюньцзе в своей речи отметил, что всё более мощный ИИ почти не имеет пределов в своем развитии, и с снижением затрат на обучение «будущее ИИ станет более доступным для всех».
В то же время соучредитель и главный технический директор китайской стартап-компании по производству роботов Zhiyuan Robotics, Пэн Чжихуэй (известный как Чжи Хуй Цзюнь), вышел на сцену с продуктом своей компании — роботом Lingxi X2, чтобы представить номер в жанре «сяншэн», что позволило более наглядно продемонстрировать «партнёрские отношения» между роботами и людьми.
Львы или младенцы, оба нуждаются в «присмотре».
Даже несмотря на то, что последовательницы и последователи занимают половину сил в сфере технологий AI в Силиконовой долине, «великий учитель» AI Джеффри Хинтон всегда противоречил коллегам по отрасли, настаивая на «теории угрозы AI».
На конференции WAIC 26 июля Хинтон вновь в своем выступлении выразил обеспокоенность по поводу быстрого развития ИИ.
Описывая развитие технологий ИИ за последние 30 лет и переход к этапу больших моделей, Хинтон считает, что нынешние большие модели понимают язык так же, как и люди.
«Человечество, возможно, является большим языковым моделем и также может создавать иллюзии, порождая множество иллюзорных языков». Это понимание, которое пришло к Хинтону, нельзя не заметить, оно очень соответствует нынешним мемам о «человеке и машине» в социальных сетях.
Однако проблема в том, что по сравнению с человеческим «углеродным мозгом» ИИ, оснащенный «кремниевым мозгом», имеет врожденные преимущества в хранении, копировании и «мгновенной передаче», что означает, что с развитием технологий в отрасли единодушно считают, что появление более умного ИИ, чем человек, — это лишь вопрос времени. А как форма существования эти ИИ, представляющие «интеллекты», безусловно, будут требовать «выживания» и «контроля».
Хинтон считает, что современный ИИ может быть похож на «трехлетнего ребенка», который еще легко поддается манипуляциям со стороны человека, но в будущем ситуация может измениться. Он также сравнил нынешний ИИ с маленьким львом, и в отношении одомашнивания льва есть только два варианта: «либо научить его не нападать на вас, либо уничтожить его».
Согласно текущему прогрессу в области ИИ по всему миру, ни одна страна не может по-настоящему «уничтожить ИИ», остановив развитие технологий. Остался только один путь: миру нужно создать агентство по безопасности ИИ, чтобы обучать ИИ и направлять его на «добро».
«Как обучить ИИ, который не хочет править человечеством, это конечная проблема, с которой сталкивается человечество», - сказал Хинтон в конце.
Некоторые требуют регулирования, другие выступают за “ослабление”.
Выступления такого мастера действительно заставляют задуматься на WAIC, но в Северной Америке, к которой принадлежит Хинтон, это кажется несколько «не очень проницательным». Компании, основанные студентами Хинтона, такие как OpenAI и Anthropic, уже стоят десятки миллиардов долларов, не говоря уже о том, что в последние два года венчурные капитальные инвестиции в стартапы в области ИИ в Силиконовой долине значительно увеличились.
Ярким примером является то, что с увеличением затрат на лоббирование со стороны AI-компаний в американской политике, регулирующие органы США официально ослабили контроль над развитием AI.
Также на этой неделе, 23 июля по местному времени в США, тогдашний президент Дональд Трамп опубликовал план действий по искусственному интеллекту (The AI Action Plan). В этом документе американские регуляторы определили, как обеспечить лидерство США в области ИИ с точки зрения данных, стандартов и кадров:
Увеличьте инвестиции в НИОКР (Invest in R&D): значительно увеличить долгосрочные инвестиции федерального правительства в фундаментальные и прикладные исследования в области ИИ, особенно в таких областях, как ИИ следующего поколения, безопасность ИИ и надежный ИИ.
Освобождение данных (Unleash AIData Resources): обеспечить безопасный доступ к огромным наборам данных, принадлежащим федеральному правительству, для исследователей ИИ и общественности, предоставляя высококачественное «топливо» для обучения моделей.
Установление технических стандартов (Установить технические стандарты AI): Под руководством правительства, совместно с промышленностью и академическими кругами, разрабатывать глобальные эталоны, стандарты и нормы AI технологий, чтобы гарантировать, что AI системы безопасны, надежны, объяснимы и справедливы.
培养AI人才 (Cultivate an AI-Ready Workforce): Реформа STEM-образования, продвижение системы ученичества и программ переподготовки, привлечение и удержание лучших специалистов в области ИИ со всего мира для обеспечения кадровых ресурсов для экономики ИИ.
Укрепление международного сотрудничества (Strengthen International Collaboration): Создание альянсов в области ИИ с союзниками и партнерскими государствами, совместная разработка правил для противодействия злоупотреблениям ИИ со стороны «авторитарных государств» и содействие открытым и демократическим приложениям ИИ.
Защита ключевых технологий (Protect Key Technologies): Укрепление защиты ключевых ИИ технологий, алгоритмов и аппаратного обеспечения (особенно полупроводников) в США с помощью таких мер, как экспортный контроль и проверка инвестиций, чтобы предотвратить утечку технологий к стратегическим конкурентам.
Можно увидеть, что США дают зеленый свет развитию технологий ИИ, одновременно используя геополитические проблемы, чтобы помешать конкурентам и себе находиться на одной стартовой линии.
Пришло время “опыта” для роботов
На текущей выставке WAIC humanoidные роботы безусловно являются самым привлекательным акцентом, без исключений.
На главной сессии форума сооснователь Zhiyuan Robotics «Чжи Хуй Цзюнь» Пен Чжи Хуэй представил продукт Zhiyuan Lingxi X2 и провел на сцене «человек-машина» стендап.
Сяншэн основывается на искусстве рассказа, изучения, шуток и пения, а роботы и люди акцентируют внимание на «вечном понимании». Lingxi X2 на сцене заявляет, что сотрудничество между людьми и роботами должно основываться на «консенсусе». Но как установить консенсус между роботами и людьми и преодолеть ключевые моменты сотрудничества человека и машины? Чжихуйцзюнь говорит, что это область, в которую компания должна углубиться, и важно идти вместе с большим количеством единомышленников.
Таким образом, Чжихуэй Цзюнь также на месте представил открытый проект «智元灵渠 OS», надеясь вместе с большим количеством людей продвигать текущую интеграцию экосистемы роботизированных систем и прорывы в новых технологиях воплощённого интеллекта.
Похоже, что для того, чтобы поддержать воплощенный интеллект, на конференции в формате видеосвязи выступил лауреат премии Тьюринга 2024 года, профессор кафедры компьютерных наук Университета Альберты в США Ричард Саттон, который считает, что в настоящее время данные, используемые для обучения больших моделей, практически исчерпаны. Но не стоит отчаиваться, потому что это означает, что наступает следующая эпоха ИИ — эпоха опыта (the Era of Experience).
В отличие от прошлых данных, использованных для обучения ИИ с помощью «статичных» данных, в будущем ИИ сможет, как человеческий младенец, получать знания и развивать способности через «опыт» внешней среды и объектов. Хотя до этой цели еще довольно далеко, в настоящее время множество стартапов в области робототехники действительно продолжают обучение и обучение в «физическом мире».
Это также объясняет, почему такие ведущие ученые отрасли, как Ли Фэйфэй, уже перешли от «ИИ» к «физическому ИИ», подчеркивая, что для того чтобы искусственный интеллект действительно вошел в реальный мир, его необходимо понимать и изучать с трехмерной точки зрения.