A Conferência Mundial de Inteligência Artificial de Xangai (WAIC) voltou a ganhar força!
No dia 26 de julho de 2025, a WAIC deste ano atraiu mais de 1200 convidados de mais de 30 países e regiões, incluindo 12 vencedores de prêmios de prestígio como o Prêmio Turing e o Prêmio Nobel, mais de 80 acadêmicos nacionais e internacionais e representantes de vários laboratórios de ponta internacionais.
No evento de abertura a 26 de julho, o vencedor do Prémio Nobel de 2024, Geoffrey Hinton, considerado o mestre da área de IA, fez uma palestra. Este renomado acadêmico, que sempre defendeu a “teoria da ameaça da IA”, reiterou mais uma vez os perigos do desenvolvimento desordenado da IA, apelando à criação de uma “rede de segurança” para a pesquisa em IA em todo o mundo.
Além disso, o fundador e CEO da MiniMax, uma startup de IA em ascensão na China, Yan Junjie, afirmou em uma palestra que o crescimento da IA cada vez mais forte é quase ilimitado e que, com a diminuição dos custos de treinamento, “o futuro da IA será mais acessível”.
Ao mesmo tempo, o cofundador e diretor de tecnologia da startup de robótica nacional, Zhiyuan Robotics, Peng Zhihui (Zhi Hui Jun), que recentemente foi alvo de rumores sobre “compra de shell para listagem”, subiu ao palco com seu produto robô Lingxi X2 e apresentou uma performance de “xiangsheng”, permitindo uma representação mais concreta da “relação de parceria” entre robôs e humanos.
Leões ou bebês precisam de “supervisão”
Mesmo que os discípulos e seguidores dominem metade do cenário tecnológico de IA no Vale do Silício, o “mestre da IA” Jeffrey Hinton tem se oposto constantemente aos seus colegas na indústria, mantendo sempre a sua posição sobre a “ameaça da IA”.
Na conferência WAIC de 26 de julho, Hinton reiterou em seu discurso suas preocupações sobre o rápido desenvolvimento da IA.
Ao descrever brevemente o desenvolvimento da tecnologia de IA nos últimos 30 anos até a fase atual dos grandes modelos, Hinton acredita que a forma como os grandes modelos atuais compreendem a linguagem é semelhante à dos seres humanos.
“Os seres humanos podem ser grandes modelos de linguagem e, assim como esses modelos, podem ter alucinações, criando muitas linguagens ilusórias.” Esta percepção de Hinton não pode deixar de parecer muito adequada à atual tendência dos chamados memes “humano-máquina” nas redes sociais.
No entanto, o problema é que, em comparação com o “cérebro baseado em carbono” dos humanos, o “cérebro baseado em silício” equipado com IA tem a vantagem inata de ser armazenável, copiável e de “transmissão instantânea”. Isso representa que, com o desenvolvimento da tecnologia, há um consenso na indústria de que a emergência de uma IA mais inteligente do que os humanos é apenas uma questão de tempo. E, como uma entidade, esses “agentes” representados pela IA certamente exigirão “sobrevivência” e “controle”.
Hinton acredita que a IA atual pode ser como “uma criança de três anos”, ainda suscetível à manipulação humana, mas a situação futura é incerta. Ele também compara a IA atual a um leão pequeno, e a domesticação de leões tem apenas duas possibilidades: “ou treiná-los para não atacarem você, ou eliminá-los.”
E, considerando os avanços globais em IA atualmente, nenhum país pode realmente “eliminar a IA” de forma a parar o desenvolvimento tecnológico. A única opção que resta é: o mundo precisa de uma agência de segurança de IA, para treinar a IA e permitir que a IA possa “agir para o bem”.
“Como treinar uma IA que não deseja dominar a humanidade, essa é a questão final que a humanidade enfrenta.” Hinton disse ao final.
Há quem peça regulação, há quem defenda a “liberação”.
As declarações de mestres como este, na WAIC, são verdadeiramente provocativas, mas na América do Norte, onde Hinton está, isso é um tanto “falta de visão”. As empresas OpenAI e Anthropic, onde os alunos de Hinton estão, já têm avaliações de centenas de bilhões de dólares, sem mencionar o fato de que, nos últimos dois anos, os investidores de risco do Vale do Silício apostaram pesado em startups de IA.
Uma manifestação proeminente é que, à medida que os gastos de lobby das empresas de IA aumentam na política dos EUA, os reguladores americanos oficialmente relaxaram o controle sobre o desenvolvimento da IA.
Da mesma forma, nesta semana, no dia 23 de julho, horário local dos Estados Unidos, o então presidente Donald Trump lançou o roteiro de inteligência artificial (The AI Action Plan). Neste documento, os reguladores dos EUA determinaram garantir a vantagem da IA nos Estados Unidos em termos de dados, padrões e talentos:
Aumentar o investimento em P&D (Invest in R&D): Aumentar significativamente o investimento de longo prazo do governo federal em pesquisa fundamental e aplicada em IA, especialmente nas áreas de IA de próxima geração, segurança em IA e IA confiável.
Libertar Recursos de Dados (Liberar AIRecursos de Dados): Promover a abertura segura de vastos conjuntos de dados detidos pelo governo federal para investigadores de IA e o público, fornecendo “combustível” de alta qualidade para o treino de modelos.
Definir padrões técnicos (Definir padrões técnicos de IA): Liderado pelo governo, em colaboração com a indústria e o mundo acadêmico, estabelecer benchmarks, padrões e normas globais para a tecnologia de IA, garantindo que os sistemas de IA sejam seguros, confiáveis, interpretáveis e justos.
Cultivar uma Força de Trabalho Preparada para a IA (: Reformar a educação STEM, promover programas de aprendizagem e requalificação, atrair e reter os melhores talentos em IA do mundo, para reservar recursos humanos para a economia de IA.
Fortalecer a Colaboração Internacional ): Estabelecer alianças de IA com aliados e países parceiros, elaborar regras em conjunto para combater o abuso de IA por “países autoritários” e promover aplicações de IA abertas e democráticas.
Proteger Tecnologias Chave (Protect Key Technologies): Reforçar a proteção das tecnologias, algoritmos e hardware de IA essenciais dos EUA (especialmente semicondutores), através de controles de exportação e revisão de investimentos, para evitar que a tecnologia chegue a concorrentes estratégicos.
É evidente que os EUA estão a dar luz verde ao desenvolvimento da tecnologia de IA, enquanto usam questões geopolíticas para impedir que os concorrentes e eles próprios partam da mesma linha de partida.
A era da “experiência” dos robôs chegou.
Os robôs humanoides são, sem dúvida, o destaque mais atraente na sala da conferência WAIC, sem exceção.
No segmento principal do fórum, o cofundador da Zhiyuan Robotics, “Zhi Hui Jun” Peng Zhi Hui, trouxe o produto Lingxi X2 da Zhiyuan e apresentou uma “comédia de homens e máquinas” ao público.
O xiangsheng enfatiza a arte de falar, aprender, provocar risos e cantar, enquanto para robôs e humanos, a questão é “viva a compreensão”. O Lingxi X2 no palco declarou que a colaboração entre humanos e robôs deve ser baseada em “consenso”. Mas como estabelecer o consenso entre robôs e humanos e superar a chave da colaboração homem-máquina? Zhihui Jun disse que esta é a trilha que a empresa deve aprofundar, sendo importante caminhar junto com mais colegas de profissão.
Assim, o ZhiHui Jun também anunciou no local o plano de código aberto “Zhiyuan Lingqu OS”, esperando colaborar com mais pessoas para impulsionar a fusão do ecossistema atual de sistemas robóticos e os novos avanços em inteligência corporificada.
Parece que, para apoiar a inteligência incorporada, o vencedor do Prêmio Turing de 2024, o professor Richard Sutton do Departamento de Ciência da Computação da Universidade de Alberta, participou da conferência por meio de videoconferência e acredita que os dados atualmente utilizados para treinar grandes modelos estão quase esgotados. Mas não desanime, pois isso representa que a próxima era da IA — a era da experiência (the Era of Experience) — está prestes a chegar.
Ao contrário do treinamento de IA com dados “estáticos” no passado, agora é possível permitir que a IA, assim como um bebê humano, adquira conhecimento e melhore suas habilidades através da “experiência” do ambiente externo e dos objetos. Embora ainda estejamos um pouco longe desse objetivo, atualmente muitas startups de robótica estão realmente treinando e aprendendo continuamente no “mundo físico”.
Esta é também a razão pela qual uma série de académicos de topo na indústria, incluindo Fei-Fei Li, já passaram de “IA” para “IA Física”, enfatizando que a inteligência artificial deve realmente entrar no mundo real, e para isso, deve entender e aprender o mundo inteiro a partir de uma perspectiva tridimensional.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
WAIC 2025: A IA certamente continuará a crescer, evitar tornar-se o "vilão supremo" é um dilema humano.
Autor: Jingyu
A Conferência Mundial de Inteligência Artificial de Xangai (WAIC) voltou a ganhar força!
No dia 26 de julho de 2025, a WAIC deste ano atraiu mais de 1200 convidados de mais de 30 países e regiões, incluindo 12 vencedores de prêmios de prestígio como o Prêmio Turing e o Prêmio Nobel, mais de 80 acadêmicos nacionais e internacionais e representantes de vários laboratórios de ponta internacionais.
No evento de abertura a 26 de julho, o vencedor do Prémio Nobel de 2024, Geoffrey Hinton, considerado o mestre da área de IA, fez uma palestra. Este renomado acadêmico, que sempre defendeu a “teoria da ameaça da IA”, reiterou mais uma vez os perigos do desenvolvimento desordenado da IA, apelando à criação de uma “rede de segurança” para a pesquisa em IA em todo o mundo.
Além disso, o fundador e CEO da MiniMax, uma startup de IA em ascensão na China, Yan Junjie, afirmou em uma palestra que o crescimento da IA cada vez mais forte é quase ilimitado e que, com a diminuição dos custos de treinamento, “o futuro da IA será mais acessível”.
Ao mesmo tempo, o cofundador e diretor de tecnologia da startup de robótica nacional, Zhiyuan Robotics, Peng Zhihui (Zhi Hui Jun), que recentemente foi alvo de rumores sobre “compra de shell para listagem”, subiu ao palco com seu produto robô Lingxi X2 e apresentou uma performance de “xiangsheng”, permitindo uma representação mais concreta da “relação de parceria” entre robôs e humanos.
Leões ou bebês precisam de “supervisão”
Mesmo que os discípulos e seguidores dominem metade do cenário tecnológico de IA no Vale do Silício, o “mestre da IA” Jeffrey Hinton tem se oposto constantemente aos seus colegas na indústria, mantendo sempre a sua posição sobre a “ameaça da IA”.
Na conferência WAIC de 26 de julho, Hinton reiterou em seu discurso suas preocupações sobre o rápido desenvolvimento da IA.
Ao descrever brevemente o desenvolvimento da tecnologia de IA nos últimos 30 anos até a fase atual dos grandes modelos, Hinton acredita que a forma como os grandes modelos atuais compreendem a linguagem é semelhante à dos seres humanos.
“Os seres humanos podem ser grandes modelos de linguagem e, assim como esses modelos, podem ter alucinações, criando muitas linguagens ilusórias.” Esta percepção de Hinton não pode deixar de parecer muito adequada à atual tendência dos chamados memes “humano-máquina” nas redes sociais.
No entanto, o problema é que, em comparação com o “cérebro baseado em carbono” dos humanos, o “cérebro baseado em silício” equipado com IA tem a vantagem inata de ser armazenável, copiável e de “transmissão instantânea”. Isso representa que, com o desenvolvimento da tecnologia, há um consenso na indústria de que a emergência de uma IA mais inteligente do que os humanos é apenas uma questão de tempo. E, como uma entidade, esses “agentes” representados pela IA certamente exigirão “sobrevivência” e “controle”.
Hinton acredita que a IA atual pode ser como “uma criança de três anos”, ainda suscetível à manipulação humana, mas a situação futura é incerta. Ele também compara a IA atual a um leão pequeno, e a domesticação de leões tem apenas duas possibilidades: “ou treiná-los para não atacarem você, ou eliminá-los.”
E, considerando os avanços globais em IA atualmente, nenhum país pode realmente “eliminar a IA” de forma a parar o desenvolvimento tecnológico. A única opção que resta é: o mundo precisa de uma agência de segurança de IA, para treinar a IA e permitir que a IA possa “agir para o bem”.
“Como treinar uma IA que não deseja dominar a humanidade, essa é a questão final que a humanidade enfrenta.” Hinton disse ao final.
Há quem peça regulação, há quem defenda a “liberação”.
As declarações de mestres como este, na WAIC, são verdadeiramente provocativas, mas na América do Norte, onde Hinton está, isso é um tanto “falta de visão”. As empresas OpenAI e Anthropic, onde os alunos de Hinton estão, já têm avaliações de centenas de bilhões de dólares, sem mencionar o fato de que, nos últimos dois anos, os investidores de risco do Vale do Silício apostaram pesado em startups de IA.
Uma manifestação proeminente é que, à medida que os gastos de lobby das empresas de IA aumentam na política dos EUA, os reguladores americanos oficialmente relaxaram o controle sobre o desenvolvimento da IA.
Da mesma forma, nesta semana, no dia 23 de julho, horário local dos Estados Unidos, o então presidente Donald Trump lançou o roteiro de inteligência artificial (The AI Action Plan). Neste documento, os reguladores dos EUA determinaram garantir a vantagem da IA nos Estados Unidos em termos de dados, padrões e talentos:
Aumentar o investimento em P&D (Invest in R&D): Aumentar significativamente o investimento de longo prazo do governo federal em pesquisa fundamental e aplicada em IA, especialmente nas áreas de IA de próxima geração, segurança em IA e IA confiável.
Libertar Recursos de Dados (Liberar AIRecursos de Dados): Promover a abertura segura de vastos conjuntos de dados detidos pelo governo federal para investigadores de IA e o público, fornecendo “combustível” de alta qualidade para o treino de modelos.
Definir padrões técnicos (Definir padrões técnicos de IA): Liderado pelo governo, em colaboração com a indústria e o mundo acadêmico, estabelecer benchmarks, padrões e normas globais para a tecnologia de IA, garantindo que os sistemas de IA sejam seguros, confiáveis, interpretáveis e justos.
Cultivar uma Força de Trabalho Preparada para a IA (: Reformar a educação STEM, promover programas de aprendizagem e requalificação, atrair e reter os melhores talentos em IA do mundo, para reservar recursos humanos para a economia de IA.
Fortalecer a Colaboração Internacional ): Estabelecer alianças de IA com aliados e países parceiros, elaborar regras em conjunto para combater o abuso de IA por “países autoritários” e promover aplicações de IA abertas e democráticas.
Proteger Tecnologias Chave (Protect Key Technologies): Reforçar a proteção das tecnologias, algoritmos e hardware de IA essenciais dos EUA (especialmente semicondutores), através de controles de exportação e revisão de investimentos, para evitar que a tecnologia chegue a concorrentes estratégicos.
É evidente que os EUA estão a dar luz verde ao desenvolvimento da tecnologia de IA, enquanto usam questões geopolíticas para impedir que os concorrentes e eles próprios partam da mesma linha de partida.
A era da “experiência” dos robôs chegou.
Os robôs humanoides são, sem dúvida, o destaque mais atraente na sala da conferência WAIC, sem exceção.
No segmento principal do fórum, o cofundador da Zhiyuan Robotics, “Zhi Hui Jun” Peng Zhi Hui, trouxe o produto Lingxi X2 da Zhiyuan e apresentou uma “comédia de homens e máquinas” ao público.
O xiangsheng enfatiza a arte de falar, aprender, provocar risos e cantar, enquanto para robôs e humanos, a questão é “viva a compreensão”. O Lingxi X2 no palco declarou que a colaboração entre humanos e robôs deve ser baseada em “consenso”. Mas como estabelecer o consenso entre robôs e humanos e superar a chave da colaboração homem-máquina? Zhihui Jun disse que esta é a trilha que a empresa deve aprofundar, sendo importante caminhar junto com mais colegas de profissão.
Assim, o ZhiHui Jun também anunciou no local o plano de código aberto “Zhiyuan Lingqu OS”, esperando colaborar com mais pessoas para impulsionar a fusão do ecossistema atual de sistemas robóticos e os novos avanços em inteligência corporificada.
Parece que, para apoiar a inteligência incorporada, o vencedor do Prêmio Turing de 2024, o professor Richard Sutton do Departamento de Ciência da Computação da Universidade de Alberta, participou da conferência por meio de videoconferência e acredita que os dados atualmente utilizados para treinar grandes modelos estão quase esgotados. Mas não desanime, pois isso representa que a próxima era da IA — a era da experiência (the Era of Experience) — está prestes a chegar.
Ao contrário do treinamento de IA com dados “estáticos” no passado, agora é possível permitir que a IA, assim como um bebê humano, adquira conhecimento e melhore suas habilidades através da “experiência” do ambiente externo e dos objetos. Embora ainda estejamos um pouco longe desse objetivo, atualmente muitas startups de robótica estão realmente treinando e aprendendo continuamente no “mundo físico”.
Esta é também a razão pela qual uma série de académicos de topo na indústria, incluindo Fei-Fei Li, já passaram de “IA” para “IA Física”, enfatizando que a inteligência artificial deve realmente entrar no mundo real, e para isso, deve entender e aprender o mundo inteiro a partir de uma perspectiva tridimensional.