Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Início em Futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
## O dilema da propriedade intelectual no treino de modelos de IA: o caso Adobe e além
A utilização de dados massivos para treinar sistemas de inteligência artificial tornou-se uma prática padrão na indústria tecnológica, mas também gerou um conflito legal sem precedentes. O núcleo do problema reside em como esses modelos adquirem as suas capacidades: através do processamento de enormes conjuntos de dados que, em muitos casos, contêm obras protegidas por direitos de autor sem consentimento explícito dos criadores originais.
### Adobe sob a lupa: SlimLM e o legado de Books3
Adobe, a empresa de software que investiu significativamente em inteligência artificial desde 2023 com produtos como Firefly, agora enfrenta uma ação coletiva que questiona os métodos por trás da sua tecnologia SlimLM. Elizabeth Lyon, autora de Oregon especializada em guias de escrita de não ficção, liderou a ação afirmando que as suas obras foram incluídas sem autorização nos dados de treino deste modelo.
A acusação aponta para uma cadeia de derivações de conjuntos de dados que ilustra a complexidade do problema. SlimLM foi pré-treinado utilizando SlimPajama-627B, um conjunto de dados de código aberto lançado pela Cerebras. O problemático é que SlimPajama foi criado como uma derivação processada de RedPajama, que por sua vez contém Books3: uma colossal coleção de 191.000 livros que se tornou a fonte de inúmeras controvérsias legais. Cada subconjunto de dados herdou potencialmente as vulnerabilidades de propriedade intelectual do anterior, criando uma cadeia de responsabilidade difusa mas real.
### Um padrão que se repete em toda a indústria
O que acontece com a Adobe não é um incidente isolado, mas parte de uma tendência mais ampla que começou a colapsar sob o peso de ações legais. Em setembro, a Apple enfrentou acusações semelhantes de ter utilizado material protegido por direitos de autor para treinar a Apple Intelligence, novamente com RedPajama mencionado como fonte. Paralelamente, a Salesforce foi processada com argumentos praticamente idênticos.
O momento mais significativo chegou quando a Anthropic concordou com um acordo de 1,5 milhões de dólares com autores que processavam por uso não autorizado de suas obras no treino do Claude. Este acordo, reportado em setembro, foi amplamente interpretado como um ponto de inflexão no litígio sobre direitos de autor em dados de treino de IA.
### Para onde vai a indústria?
A acumulação de ações coletivas sugere que o modelo atual de aquisição de dados para treinar IA é insustentável legalmente. As empresas tecnológicas enfrentam um dilema: treinar modelos poderosos requer volumes massivos de dados, mas a obtenção legal e compensada de tais volumes ainda não possui um quadro estabelecido na maioria das jurisdições. O caso da Adobe, particularmente a forma como o SlimLM herdou dados problemáticos de subconjuntos anteriores, destaca como a responsabilidade pode ser rastreada através de múltiplas camadas de processamento de dados, mesmo quando as empresas garantem usar conjuntos de dados "de código aberto".
A indústria encontra-se num momento crítico onde os precedentes legais estão começando a definir o que é aceitável e o que não é no treino de IA.