Jin10 dados 14 de maio, a organização de pesquisa em IA sem fins lucrativos Epoch AI publicou um relatório que aponta que as empresas de IA têm dificuldade em extrair ganhos de desempenho significativos de modelos de inferência, e que a melhoria desses modelos começará a desacelerar, possivelmente em um ano. O relatório, baseado em dados públicos e suposições, enfatiza as limitações de recursos computacionais e o aumento dos custos de pesquisa. A indústria de IA tem dependido desses modelos por um longo tempo para melhorar o desempenho de referência, mas essa dependência está enfrentando desafios. O analista da instituição, Josh You, indicou que a ascensão dos modelos de inferência se deve ao seu desempenho excepcional em tarefas específicas. Por exemplo, o modelo o3 da OpenAI melhorou principalmente as habilidades matemáticas e de programação nos últimos meses. Esses modelos de inferência resolvem problemas aumentando os recursos computacionais, melhorando assim o desempenho; no entanto, como custo, esses modelos de inferência requerem mais computação para lidar com tarefas complexas, levando mais tempo do que os modelos tradicionais.
Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Previsão da Epoch AI: em até 1 ano, o ritmo dos modelos de inferência irá desacelerar.
Jin10 dados 14 de maio, a organização de pesquisa em IA sem fins lucrativos Epoch AI publicou um relatório que aponta que as empresas de IA têm dificuldade em extrair ganhos de desempenho significativos de modelos de inferência, e que a melhoria desses modelos começará a desacelerar, possivelmente em um ano. O relatório, baseado em dados públicos e suposições, enfatiza as limitações de recursos computacionais e o aumento dos custos de pesquisa. A indústria de IA tem dependido desses modelos por um longo tempo para melhorar o desempenho de referência, mas essa dependência está enfrentando desafios. O analista da instituição, Josh You, indicou que a ascensão dos modelos de inferência se deve ao seu desempenho excepcional em tarefas específicas. Por exemplo, o modelo o3 da OpenAI melhorou principalmente as habilidades matemáticas e de programação nos últimos meses. Esses modelos de inferência resolvem problemas aumentando os recursos computacionais, melhorando assim o desempenho; no entanto, como custo, esses modelos de inferência requerem mais computação para lidar com tarefas complexas, levando mais tempo do que os modelos tradicionais.