A Camada de Julgamento: Por que a IA não é inteligente até que os líderes sejam mais inteligentes

Guillermo Delgado Aparicio é Líder Global de IA na Nisum.


Descubra as principais notícias e eventos do setor fintech!

Subscreva a newsletter do FinTech Weekly

Lida por executivos do JP Morgan, Coinbase, Blackrock, Klarna e mais


A IA no setor fintech abrange uma variedade de casos de uso, desde deteção de fraude e trading algorítmico até pontuação de crédito dinâmica e recomendações personalizadas de produtos. No entanto, um relatório da Autoridade de Conduta Financeira revelou que, dos 75% das empresas que utilizam IA, apenas 34% sabem como ela funciona.

A questão não é apenas a falta de conhecimento. Trata-se de uma compreensão profunda do poder e do alcance da análise de dados, a disciplina de onde a IA surge. A adoção massiva de ferramentas de IA generativa trouxe o tema para o topo da agenda dos altos executivos. Mas muitos daqueles que decidem como implementar a IA não compreendem os seus princípios fundamentais de cálculo, estatística e algoritmos avançados.

Considere a Lei de Benford, um princípio estatístico simples que identifica fraudes ao detectar padrões nos números. A IA baseia-se nesse mesmo tipo de matemática, apenas escalada para milhões de transações ao mesmo tempo. Tirando o hype de lado, a base continua sendo estatísticas e algoritmos.

Por isso, a literacia em IA ao nível do topo da hierarquia é importante. Líderes que não conseguem distinguir onde termina a análise de dados correm o risco de confiar excessivamente em sistemas que não entendem ou de os subutilizar por medo. E a história mostra o que acontece quando os decisores interpretam mal a tecnologia: os reguladores tentaram banir chamadas internacionais de IP, apenas para ver a tecnologia superar as regras. A mesma dinâmica está a acontecer com a IA. Não se pode bloqueá-la ou adotá-la cegamente; é preciso juízo, contexto e a capacidade de orientá-la de forma responsável.

Os líderes do setor fintech devem preencher essas lacunas para usar a IA de forma responsável e eficaz. Isso significa entender onde termina a análise de dados e começa a IA, desenvolver as competências para orientar esses sistemas e aplicar um julgamento sólido para decidir quando e como confiar nos seus resultados.

Os Limites, Pontos Cegos e Ilusões da IA

A análise de dados estuda dados passados e presentes para explicar o que aconteceu e porquê. A IA nasce dessa base, usando análises avançadas para prever o que acontecerá a seguir e, cada vez mais, para decidir ou agir automaticamente com base nisso.

Com as suas habilidades excecionais de processamento de dados, é fácil perceber por que os líderes fintech veem na IA a sua solução mágica. Mas ela não consegue resolver todos os problemas. Os humanos ainda têm uma vantagem inata no reconhecimento de padrões, especialmente quando os dados estão incompletos ou “sujos”. A IA pode ter dificuldades em interpretar as nuances contextuais que os humanos conseguem captar rapidamente.

No entanto, é um erro pensar que dados imperfeitos tornam a IA inútil. Modelos analíticos podem trabalhar com dados incompletos. Mas saber quando usar a IA e quando confiar no julgamento humano para preencher as lacunas é o verdadeiro desafio. Sem essa supervisão cuidadosa, a IA pode introduzir riscos significativos.

Um desses riscos é o viés. Quando as fintechs treinam a IA com conjuntos de dados antigos, muitas vezes herdando os preconceitos existentes, por exemplo, um nome de cliente pode, inadvertidamente, servir como proxy de género, ou pistas inferidas do sobrenome podem indicar etnia, distorcendo as pontuações de crédito de formas que nenhum regulador aprovaria. Esses vieses, facilmente escondidos na matemática, muitas vezes requerem supervisão humana para serem detectados e corrigidos.

Quando os modelos de IA são expostos a situações para as quais não foram treinados, isso pode causar desvio de modelo. A volatilidade do mercado, mudanças regulatórias, comportamentos evolutivos dos clientes e alterações macroeconómicas podem afetar a eficácia de um modelo sem monitorização e recalibração humanas.

A dificuldade de recalibrar algoritmos aumenta significativamente quando as fintechs usam caixas-pretas que não permitem visibilidade sobre a relação entre variáveis. Nessas condições, perdem a possibilidade de transferir esse conhecimento para os decisores na gestão. Além disso, erros e vieses permanecem ocultos em modelos opacos, minando a confiança e a conformidade.

O que os líderes fintech precisam de saber

Uma pesquisa da Deloitte revelou que 80% afirmam que os seus conselhos de administração têm pouca ou nenhuma experiência com IA. Mas os executivos do topo não podem tratar a IA como um problema de “equipe técnica”. A responsabilidade pela IA recai sobre a liderança, o que significa que os líderes fintech precisam de desenvolver competências.

Fluência cross-analítica

Antes de implementar a IA, os líderes fintech precisam de ser capazes de mudar de perspetiva — analisando os números, o caso de negócio, as operações e a ética — e perceber como esses fatores se sobrepõem e moldam os resultados da IA. Devem compreender como a precisão estatística de um modelo se relaciona com a exposição ao risco de crédito. E reconhecer quando uma variável que parece financeiramente sólida (como o histórico de pagamento) pode introduzir riscos sociais ou regulatórios por estar correlacionada com uma classe protegida, como idade ou etnia.

Essa fluência em IA vem de trabalhar com os responsáveis de conformidade para entender regulamentos, conversar com gestores de produto sobre a experiência do utilizador e rever os resultados do modelo com cientistas de dados para identificar sinais de desvio ou viés.

No setor fintech, evitar riscos a 100% é impossível, mas com fluência cross-analítica, os líderes podem identificar quais riscos valem a pena assumir e quais podem erodir o valor para os acionistas. Essa competência também aprimora a capacidade de detectar e agir contra vieses, não apenas do ponto de vista de conformidade, mas também estratégico e ético.

Por exemplo, se um modelo de pontuação de crédito baseado em IA tende a favorecer fortemente um grupo de clientes, corrigir esse desequilíbrio não é apenas uma tarefa de ciência de dados; é uma questão de proteger a reputação da empresa. Para fintechs comprometidas com inclusão financeira ou sujeitas a escrutínio ESG, a conformidade legal sozinha não basta. Juízo significa saber o que é certo, não apenas o que é permitido.

Literacia em explicabilidade

A explicabilidade é a base da confiança. Sem ela, os decisores, clientes e reguladores ficam a questionar por que um modelo chegou a uma conclusão específica.

Isso exige que os executivos consigam distinguir entre modelos interpretáveis e aqueles que necessitam de explicações pós-hoc (como valores SHAP ou LIME). Devem fazer perguntas quando a lógica de um modelo não estiver clara e reconhecer quando a “precisão” sozinha não justifica uma decisão de caixa-preta.

Vieses não surgem do nada; eles aparecem quando os modelos são treinados e utilizados sem supervisão suficiente. A explicabilidade dá aos líderes a visibilidade para detectar esses problemas cedo e agir antes que causem danos.

A IA é como o piloto automático de um avião. Na maior parte do tempo, funciona sem problemas, mas quando há uma tempestade, o piloto precisa assumir o controlo. No setor financeiro, esse mesmo princípio aplica-se. As equipas precisam de capacidade para parar negociações, ajustar estratégias ou até cancelar um lançamento de produto quando as condições mudam. A explicabilidade funciona em conjunto com a prontidão para intervenção, garantindo que os líderes do topo compreendam a IA e mantenham o controlo, mesmo quando ela opera em grande escala.

Pensamento probabilístico de modelos

Os executivos estão habituados a decisões determinísticas, como se a pontuação de crédito estiver abaixo de 650, recusar a candidatura. Mas a IA não funciona assim, e essa é uma mudança de paradigma mental importante.

Para os líderes, o pensamento probabilístico exige três capacidades:

  • Interpretar intervalos de risco em vez de resultados binários sim/não.
  • Avaliar o nível de confiança de uma previsão em relação a outras considerações comerciais ou regulatórias.
  • Saber quando substituir a automação por discrição humana.

Por exemplo, um modelo de IA probabilístico de uma fintech pode sinalizar um cliente como de alto risco, mas isso não significa necessariamente “recusar”. Pode significar “investigar mais” ou “ajustar os termos do empréstimo”. Sem essa nuance, a automação corre o risco de se tornar uma ferramenta bruta, minando a confiança do cliente e expondo as empresas a reações regulatórias adversas.

Porque a camada de julgamento vai definir os vencedores do setor fintech

O futuro do setor fintech não será decidido por quem tem os modelos de IA mais poderosos; mas por quem os usa com o julgamento mais apurado. À medida que a IA se torna uma commodity, os ganhos de eficiência passam a ser o padrão. O que diferencia os vencedores é a capacidade de intervir quando os algoritmos enfrentam incerteza, risco e zonas cinzentas éticas.

A camada de julgamento não é uma ideia abstrata. Ela manifesta-se quando os executivos decidem pausar negociações automatizadas, atrasar um lançamento de produto ou substituir uma pontuação de risco que não reflete o contexto real. Esses momentos não são falhas da IA; são provas de que a supervisão humana é a última linha de criação de valor.

O alinhamento estratégico é onde o julgamento se torna institucionalizado. Uma estratégia de IA sólida não se limita a estabelecer roteiros técnicos; garante que a organização revise iniciativas, atualize as competências das equipas em IA, assegure a arquitetura de dados necessária e vincule cada implementação a um resultado de negócio claro. Nesse sentido, o julgamento não é episódico, mas parte do modo de operação, permitindo aos executivos liderar com base em valores.

As fintechs precisam de líderes que saibam equilibrar IA para velocidade e escala com humanos para contexto, nuance e visão de longo prazo. A IA consegue detectar anomalias em segundos, mas só as pessoas podem decidir quando resistir à matemática, repensar pressupostos ou assumir riscos audazes que abram portas para o crescimento. Essa camada de julgamento é o que transforma a IA de uma ferramenta em uma vantagem competitiva.

Sobre o autor:

Guillermo Delgado é Líder Global de IA na Nisum e COO da Deep Space Biology. Com mais de 25 anos de experiência em bioquímica, inteligência artificial, biologia espacial e empreendedorismo, desenvolve soluções inovadoras para o bem-estar humano na Terra e no espaço.

Como consultor de estratégia corporativa, contribuiu para a visão de IA da NASA para a biologia espacial e recebeu prémios de inovação. Possui um Mestrado em Ciência em Inteligência Artificial pelo Georgia Tech, obtido com distinção. Além disso, é professor universitário, tendo lecionado cursos sobre aprendizagem de máquina, big data e ciência genómica.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar

Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)