Большие модели соревнуются в способности обрабатывать длинные тексты на 400 000 токенов, исследуя новые границы применения ИИ

robot
Генерация тезисов в процессе

Длинные текстовые технологии становятся новой ареной для больших моделей, 400000 токенов могут быть лишь началом

Большие модели стремительно увеличивают свою способность обрабатывать длинные тексты, развиваясь от 4000 токенов до 400000 токенов. Способность к работе с длинными текстами, похоже, стала новой "стандартной функцией" для производителей больших моделей.

Внутри страны и за рубежом множество ведущих компаний и исследовательских учреждений в области технологий больших моделей рассматривают увеличение длины контекста как ключевое направление обновления. Большинство из этих компаний являются любимцами капитальных рынков и получили значительные инвестиции.

У компаний больших моделей есть множество причин сосредотачиваться на технологии длинного текста:

  1. Решение проблем с внедрением приложений. Короткий текст ограничивает применение во многих сценариях, таких как виртуальные персонажи, разработка игр, анализ в профессиональных областях и т.д.

  2. Прокладывание пути для будущих приложений Agent и AI. Эти приложения должны полагаться на большое количество исторической информации и контекста, чтобы сохранять последовательность и индивидуализированный опыт.

  3. Повышение точности модели. Длинные тексты могут предоставить больше контекста и подробностей, уменьшить неоднозначность и повысить способность к выводу.

  4. Содействие внедрению отрасли. Технология длинных текстов способствует применению больших моделей в специализированных областях, таких как финансы и право.

Однако, технологии длинного текста сталкиваются с дилеммой "невозможного треугольника": длина текста, внимание и вычислительная мощность трудно совместить. Основная причина в том, что большинство моделей основаны на структуре Transformer, и объем вычислений их механизма самовнимания растет квадратично с увеличением длины контекста.

В настоящее время существует три основных решения:

  1. Используйте внешние инструменты для обработки длинных текстов
  2. Оптимизация вычисления механизма самовнимания
  3. Использование методов оптимизации модели

Несмотря на то, что технологии длинных текстов все еще сталкиваются с вызовами, компании с большими моделями постоянно ищут оптимальный баланс, чтобы обрабатывать достаточное количество информации, одновременно учитывая вычисления внимания и затраты на вычислительную мощность. Способность обрабатывать 400 000 токенов может быть только началом, в будущем нас ждет еще более длинный путь.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 9
  • Поделиться
комментарий
0/400
BakedCatFanboyvip
· 07-04 13:16
Уже почти миллион токенов.
Посмотреть ОригиналОтветить0
BoredApeResistancevip
· 07-03 00:20
Почему бы не сделать 400000 токенов бесконечными?
Посмотреть ОригиналОтветить0
ImpermanentPhobiavip
· 07-02 22:15
Длинный текст не так хорош, как четыре десятка тысяч картинок.
Посмотреть ОригиналОтветить0
ApeWithAPlanvip
· 07-02 09:43
подняться на борт еще рано, не спеши с торгами
Посмотреть ОригиналОтветить0
WhaleWatchervip
· 07-02 09:41
Короткого текста действительно уже недостаточно для игры.
Посмотреть ОригиналОтветить0
FlashLoanLordvip
· 07-02 09:41
Просто смотрите на капиталистическую битву~
Посмотреть ОригиналОтветить0
TestnetScholarvip
· 07-02 09:27
Пришла следующая мощная вещь для написания论文.
Посмотреть ОригиналОтветить0
WenMoonvip
· 07-02 09:26
4000 до 400000, скоро 10000000
Посмотреть ОригиналОтветить0
AirdropBuffetvip
· 07-02 09:22
Длина больше, тем больше шахта для Майнеров.
Посмотреть ОригиналОтветить0
Подробнее
  • Закрепить