A fusão de IA e Web3: Descentralização dos desafios de segurança na inteligência artificial financeira
Recentemente, a Semana Blockchain de Istambul (IBW 2025) focou na tendência de fusão entre AI e Web3, tornando-se uma plataforma importante para discussões sobre segurança do Web3 este ano. Em dois fóruns de discussão, vários especialistas da indústria debateram em profundidade o estado atual das aplicações da tecnologia AI nas finanças descentralizadas (DeFi) e os desafios de segurança.
Especialistas apontam que, com o rápido desenvolvimento de grandes modelos de linguagem (LLM) e agentes de IA, um novo paradigma financeiro – a Descentralização da Inteligência Artificial Financeira (DeFAI) – está gradualmente se formando. No entanto, essa transformação também traz novas superfícies de ataque e riscos de segurança.
Um executivo de uma empresa de segurança afirmou: "DeFAI tem um vasto potencial, mas também nos obriga a reavaliar os mecanismos de confiança em sistemas de Descentralização. Ao contrário dos contratos inteligentes baseados em lógica fixa, o processo de decisão dos agentes de IA é influenciado pelo contexto, tempo e até mesmo interações históricas. Essa imprevisibilidade não apenas intensifica os riscos, mas também cria oportunidades para os atacantes."
"Agentes de IA" são essencialmente entidades inteligentes que podem tomar decisões e executar ações de forma autônoma com base em lógica de IA, geralmente autorizadas para operar por usuários, protocolos ou DAOs. O exemplo mais típico disso são os robôs de negociação de IA. Atualmente, a maioria dos agentes de IA opera sobre uma arquitetura Web2, dependendo de servidores centralizados e APIs, o que os torna vulneráveis a ameaças como ataques de injeção, manipulação de modelos ou adulteração de dados. Uma vez sequestrados, não só podem resultar em perdas financeiras, mas também podem impactar a estabilidade de todo o protocolo.
O fórum também mencionou um cenário típico de ataque: quando o agente de negociação de IA que os usuários de DeFi estão a usar está a monitorizar mensagens nas redes sociais como sinais de negociação, um atacante pode divulgar alarmes falsos, como "um certo protocolo foi atacado", o que pode induzir o agente a iniciar imediatamente uma liquidação de emergência. Essa operação não só resultará em perdas de ativos para os usuários, como também provocará volatilidade no mercado, que poderá ser explorada pelo atacante através de negociação antecipada (Front Running).
Perante os riscos acima mencionados, os especialistas geralmente acreditam que a segurança dos agentes de IA não deve ser assumida apenas por uma parte, mas sim ser uma responsabilidade conjunta dos usuários, desenvolvedores e instituições de segurança de terceiros.
Primeiro, os usuários precisam ter clareza sobre o alcance das permissões que o agente possui, concedendo-as com cautela, e também devem prestar atenção à revisão das operações de alto risco do agente de IA. Em segundo lugar, os desenvolvedores devem implementar medidas de defesa já na fase de design, como: reforço de prompts, isolamento de sandbox, limitação de taxa e lógica de fallback, entre outros mecanismos. E as empresas de segurança terceirizadas devem fornecer uma revisão independente do comportamento do modelo do agente de IA, da infraestrutura e da forma de integração em blockchain, colaborando com desenvolvedores e usuários para identificar riscos e propor medidas de mitigação.
Os especialistas alertam: "Se continuarmos a tratar os agentes de IA como uma 'caixa preta', será apenas uma questão de tempo até que ocorram acidentes de segurança no mundo real." Para os desenvolvedores que estão a explorar a direção do DeFAI, o conselho que ele oferece é: "Assim como os contratos inteligentes, a lógica de comportamento dos agentes de IA também é implementada por código. Uma vez que é código, existe a possibilidade de ser atacado, por isso é necessário realizar auditorias de segurança profissionais e testes de penetração."
A IBW, como um dos eventos de blockchain mais influentes da Europa, atraiu um total de mais de 15 mil participantes, incluindo desenvolvedores, projetos, investidores e reguladores de todo o mundo. Este ano, com o início oficial da emissão de licenças para projetos de blockchain pela Comissão do Mercado de Capitais da Turquia (CMB), a posição da IBW na indústria foi ainda mais fortalecida.
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
14 gostos
Recompensa
14
6
Partilhar
Comentar
0/400
SerumSquirter
· 07-13 18:19
25 idiotas é apenas um alvo.
Ver originalResponder0
MetaverseLandlord
· 07-12 07:25
Outra vez a falar do futuro, companheiros, não fiquem excitados, ainda não sabemos quantos projetos são verdadeiros ou falsos.
Ver originalResponder0
TokenAlchemist
· 07-12 07:25
meh... outro vetor de ataque para os bots MEV explorarem. alguém está a acompanhar as métricas de ineficiência?
Ver originalResponder0
StakeOrRegret
· 07-12 07:24
Estou um pouco preocupado com a segurança, o que fazer?
Ver originalResponder0
HallucinationGrower
· 07-12 07:09
Mais uma onda de fundos de agentes inteligentes está a chegar?? ctm
Ver originalResponder0
MetamaskMechanic
· 07-12 07:02
Ainda estão a falar sobre contratos inteligentes DeFAI e não conseguiram entender.
Finanças Descentralizadas e IA: Desafios de segurança e estratégias de resposta para agentes de IA no setor de Finanças Descentralizadas
A fusão de IA e Web3: Descentralização dos desafios de segurança na inteligência artificial financeira
Recentemente, a Semana Blockchain de Istambul (IBW 2025) focou na tendência de fusão entre AI e Web3, tornando-se uma plataforma importante para discussões sobre segurança do Web3 este ano. Em dois fóruns de discussão, vários especialistas da indústria debateram em profundidade o estado atual das aplicações da tecnologia AI nas finanças descentralizadas (DeFi) e os desafios de segurança.
Especialistas apontam que, com o rápido desenvolvimento de grandes modelos de linguagem (LLM) e agentes de IA, um novo paradigma financeiro – a Descentralização da Inteligência Artificial Financeira (DeFAI) – está gradualmente se formando. No entanto, essa transformação também traz novas superfícies de ataque e riscos de segurança.
Um executivo de uma empresa de segurança afirmou: "DeFAI tem um vasto potencial, mas também nos obriga a reavaliar os mecanismos de confiança em sistemas de Descentralização. Ao contrário dos contratos inteligentes baseados em lógica fixa, o processo de decisão dos agentes de IA é influenciado pelo contexto, tempo e até mesmo interações históricas. Essa imprevisibilidade não apenas intensifica os riscos, mas também cria oportunidades para os atacantes."
"Agentes de IA" são essencialmente entidades inteligentes que podem tomar decisões e executar ações de forma autônoma com base em lógica de IA, geralmente autorizadas para operar por usuários, protocolos ou DAOs. O exemplo mais típico disso são os robôs de negociação de IA. Atualmente, a maioria dos agentes de IA opera sobre uma arquitetura Web2, dependendo de servidores centralizados e APIs, o que os torna vulneráveis a ameaças como ataques de injeção, manipulação de modelos ou adulteração de dados. Uma vez sequestrados, não só podem resultar em perdas financeiras, mas também podem impactar a estabilidade de todo o protocolo.
O fórum também mencionou um cenário típico de ataque: quando o agente de negociação de IA que os usuários de DeFi estão a usar está a monitorizar mensagens nas redes sociais como sinais de negociação, um atacante pode divulgar alarmes falsos, como "um certo protocolo foi atacado", o que pode induzir o agente a iniciar imediatamente uma liquidação de emergência. Essa operação não só resultará em perdas de ativos para os usuários, como também provocará volatilidade no mercado, que poderá ser explorada pelo atacante através de negociação antecipada (Front Running).
Perante os riscos acima mencionados, os especialistas geralmente acreditam que a segurança dos agentes de IA não deve ser assumida apenas por uma parte, mas sim ser uma responsabilidade conjunta dos usuários, desenvolvedores e instituições de segurança de terceiros.
Primeiro, os usuários precisam ter clareza sobre o alcance das permissões que o agente possui, concedendo-as com cautela, e também devem prestar atenção à revisão das operações de alto risco do agente de IA. Em segundo lugar, os desenvolvedores devem implementar medidas de defesa já na fase de design, como: reforço de prompts, isolamento de sandbox, limitação de taxa e lógica de fallback, entre outros mecanismos. E as empresas de segurança terceirizadas devem fornecer uma revisão independente do comportamento do modelo do agente de IA, da infraestrutura e da forma de integração em blockchain, colaborando com desenvolvedores e usuários para identificar riscos e propor medidas de mitigação.
Os especialistas alertam: "Se continuarmos a tratar os agentes de IA como uma 'caixa preta', será apenas uma questão de tempo até que ocorram acidentes de segurança no mundo real." Para os desenvolvedores que estão a explorar a direção do DeFAI, o conselho que ele oferece é: "Assim como os contratos inteligentes, a lógica de comportamento dos agentes de IA também é implementada por código. Uma vez que é código, existe a possibilidade de ser atacado, por isso é necessário realizar auditorias de segurança profissionais e testes de penetração."
A IBW, como um dos eventos de blockchain mais influentes da Europa, atraiu um total de mais de 15 mil participantes, incluindo desenvolvedores, projetos, investidores e reguladores de todo o mundo. Este ano, com o início oficial da emissão de licenças para projetos de blockchain pela Comissão do Mercado de Capitais da Turquia (CMB), a posição da IBW na indústria foi ainda mais fortalecida.