A IA em Conformidade Não é uma Caixa Preta — É um Teste de Responsabilidade: Entrevista com Roman Eloshvili

Roman Eloshvili é fundador da ComplyControl, uma startup de conformidade e deteção de fraude alimentada por IA para instituições financeiras.


Descubra as principais notícias e eventos do setor fintech!

Subscreva a newsletter do FinTech Weekly

Lida por executivos da JP Morgan, Coinbase, Blackrock, Klarna e mais


O que é que a IA na Conformidade realmente está a testar: Tecnologia, ou Nós?

Nos serviços financeiros, a conformidade já não é apenas uma função. É um ponto de pressão ativo—onde regulamentos, risco e operações colidem. À medida que as tecnologias de IA são introduzidas neste espaço, uma questão continua a surgir: quanto podemos realmente automatizar, e quem permanece responsável quando algo corre mal?

A atratividade da IA na deteção de fraudes e conformidade é fácil de entender. As instituições financeiras enfrentam expectativas crescentes para processar grandes volumes de dados, responder a ameaças em evolução e cumprir regulamentos em mudança—tudo sem comprometer a velocidade ou a precisão. A automação, especialmente quando impulsionada por aprendizagem automática, oferece uma forma de reduzir a carga operacional. Mas também levanta preocupações mais profundas sobre governação, explicabilidade e controlo.

Estas tensões não são teóricas. Estão a desenrolar-se em tempo real, à medida que as empresas financeiras implementam modelos de IA em funções tradicionalmente desempenhadas por analistas humanos. Por trás das cenas, surgem novos riscos: falsos positivos, pontos cegos na auditoria e decisões algorítmicas que permanecem opacas tanto para utilizadores quanto para reguladores.

Ao mesmo tempo, os profissionais de conformidade estão a ser convidados a mudar de funções. Em vez de inspecionar manualmente cada transação, agora supervisionam as ferramentas que o fazem. Esta mudança—de executor a avaliador—exige não apenas novas competências técnicas, mas também um sentido mais forte de responsabilidade ética e procedimental. A IA pode escalar a análise de dados. Pode sinalizar inconsistências. Mas não consegue explicar completamente a intenção, interpretar o contexto ou absorver a culpa.

Compreender esses limites é fundamental. E poucas pessoas estão melhor posicionadas para explorá-los do que Roman Eloshvili, fundador da empresa britânica de tecnologia de conformidade ComplyControl. O seu trabalho situa-se precisamente na interseção de risco, automação e supervisão—onde a eficiência algorítmica encontra o escrutínio regulatório.

Com mais de uma década na área, Roman viu em primeira mão como as equipas de conformidade estão a evoluir e como a IA está a remodelar tanto os seus fluxos de trabalho quanto as suas responsabilidades. Ele defende que a promessa da IA não reside em eliminar funções humanas, mas em remodelá-las—trazendo maior clareza sobre o que as máquinas devem tratar e o que os humanos ainda devem assumir.

Esta mudança exige mais do que melhorias técnicas. Requer uma realinhamento cultural em torno da responsabilidade. Sistemas transparentes, processos auditáveis e responsabilidades humanas claramente atribuídas já não são apenas características—são o padrão mínimo. Quando a IA é introduzida em infraestruturas críticas, ela não resolve apenas problemas. Introduz uma nova categoria de decisões que requerem uma gestão ativa e estratégica.

Nesta conversa para o FinTech Weekly, Roman oferece uma visão fundamentada do que é necessário para integrar a IA de forma responsável na conformidade e na prevenção de fraudes. A sua perspetiva não apresenta a automação como uma inevitabilidade, mas como uma escolha—uma que exige julgamento humano contínuo, clareza operacional e disposição para fazer perguntas difíceis sobre onde realmente reside a confiança.

Temos o prazer de partilhar as suas perceções num momento em que muitos no setor fintech questionam não se devem adotar IA—mas como fazê-lo sem perder de vista os padrões que fizeram os sistemas financeiros funcionarem desde o início.


1. Construíste uma carreira na encruzilhada entre conformidade e tecnologia. Consegues recordar o momento em que percebeste que a IA poderia mudar fundamentalmente a forma como a gestão de risco é feita?

Não diria que foi apenas um momento específico que mudou tudo. Antes, foi um processo disperso. Passei uma boa parte da minha carreira a trabalhar com bancos europeus estabelecidos, e uma coisa que notei foi que muitos deles estavam bastante atrasados em soluções de banca digital. A diferença era especialmente evidente em comparação com hubs fintech mais avançados.

Há alguns anos, quando o tema do desenvolvimento de IA voltou a aquecer, naturalmente fiquei curioso e investiguei. E, ao estudar a tecnologia e o seu funcionamento, percebi que a inteligência artificial tinha potencial para mudar drasticamente a forma como os bancos lidam com a conformidade, colocando-os mais ao nível de fintechs modernas e mais ágeis.

Foi isso que me levou a lançar a minha empresa em 2023. A complexidade da conformidade e gestão de risco só aumenta de ano para ano. Diante desta realidade, a nossa missão é simples: trazer soluções alimentadas por IA às empresas financeiras e ajudá-las a lidar com estes desafios crescentes de forma mais eficaz.

2. Da tua perspetiva profissional, como evoluiu o papel dos especialistas humanos à medida que as ferramentas de IA se tornaram mais avançadas na conformidade e na deteção de fraudes?

Antes de mais, deixa-me abordar uma preocupação comum em muitas áreas: se a IA vai substituir os trabalhadores humanos. E, no que diz respeito aos profissionais de conformidade e risco, a minha resposta é não—pelo menos, não tão cedo.

Embora a inteligência artificial já esteja a transformar a nossa indústria, ela ainda está longe de ser infalível. Assim, a intervenção humana continua a ser um fator essencial. As regulamentações de conformidade mudam constantemente, e alguém tem de ser responsável quando os sistemas não acompanham ou cometem erros. No estado atual de desenvolvimento, a IA ainda tem dificuldades em explicar claramente as suas decisões, pelo que não está pronta para agir sozinha. Especialmente numa área onde a confiança e a transparência são fundamentais.

Dito isto, a IA está a facilitar ativamente os processos de conformidade. Por exemplo, dependendo da configuração, os sistemas de IA podem agora sinalizar transações suspeitas ou até bloqueá-las temporariamente enquanto solicitam verificação adicional. Não é necessário que humanos revisem cada detalhe manualmente, a menos que algo realmente pareça estranho. E, à medida que estes sistemas evoluem, continuarão a reduzir a necessidade de trabalho manual, permitindo às equipas focar-se em tarefas mais complexas que realmente exigem um toque humano.

Acredito que vamos assistir ao surgimento de um modelo híbrido, onde os especialistas em conformidade também se tornarão cada vez mais proficientes no uso de ferramentas de IA. Serão eles a implementar e manter os sistemas de IA, enquanto a própria IA simplificará o trabalho ao interpretar dados complexos e fornecer recomendações. No entanto, o julgamento final continuará a ser dos humanos.

3. Quando trabalha com IA em áreas sensíveis como a conformidade financeira, como abordaste pessoalmente o desafio de manter a confiança e a responsabilidade na tomada de decisões?

Claro. Como já mencionei, quando se usa IA na conformidade, a confiança é crucial.

Por isso, construímos os nossos sistemas de IA para serem totalmente transparentes. Eles não funcionam como uma “caixa preta”—cada recomendação que o sistema faz baseia-se em regras e dados rastreáveis. Mantemos um registo completo de como cada decisão é tomada, para que seja totalmente explicável. Esta prática já se revelou extremamente valiosa ao lidar com reguladores.

A decisão final cabe sempre ao responsável de conformidade. A IA oferece uma sugestão bem fundamentada que o humano pode facilmente verificar e decidir se aprova ou rejeita.

4. A tua experiência abrange mais de 10 anos. Como mudou a tua mentalidade sobre automação e supervisão humana ao longo da tua carreira, especialmente agora com a IA a tornar-se mais autónoma?

Com certeza. Falando de forma mais geral sobre o estado da adoção de IA, quanto mais esta tecnologia avança, mais autonomia lhe permitimos—desde que seja devidamente testada e continue a mostrar-se fiável.

Mas o que está a mudar ainda mais é o papel do especialista humano nesta equação. Em vez de gerir cada caso ao pormenor, os responsáveis de conformidade passam a desempenhar cada vez mais o papel de supervisores estratégicos. Podem rever lotes inteiros de casos semelhantes rapidamente, validar o desempenho do sistema e ajustar modelos com base nos resultados.

Em outras palavras, o papel de responsável de conformidade está a passar de fazer o trabalho manual para gerir sistemas de IA que fazem esse trabalho por eles.

5. Trabalhar com IA na gestão de risco levanta questões éticas complexas. Como desenvolveste pessoalmente uma estrutura para tomar decisões responsáveis ao desenhar ou implementar soluções baseadas em IA?

Baseámos a nossa abordagem em duas ideias-chave: supervisão clara e princípios de IA Responsável. Cada modelo que usamos tem alguém responsável por ele. Avaliações de risco, revisões de desempenho e verificações de conformidade são feitas regularmente.

Também garantimos que os nossos sistemas sejam auditáveis. Se o algoritmo tomar uma decisão, esse processo pode ser revisto e verificado. Esta transparência é uma parte fundamental do nosso compromisso com o desenvolvimento responsável de IA.

6. Na tua trajetória, qual foi a lição profissional mais difícil que aprendeste sobre os limites—ou os riscos—de confiar demasiado na automação em áreas críticas como a prevenção de fraudes?

Uma lição que certamente devemos ter sempre presente é que mesmo modelos bem treinados podem “alucinar”—podem cometer erros subtis, mas graves.

A IA pode falhar em detectar esquemas de fraude complexos ou disparar demasiados alertas falsos. Por isso, combinar IA com expertise humana é tão importante—os humanos trazem julgamento fluido e são melhores a avaliar ética e o contexto geral, de uma forma que a IA não consegue.

O equilíbrio entre ambos promete resultados melhores e mais fiáveis. A IA pode ajudar a lidar com o volume de tarefas e a simplificar a sua complexidade, enquanto as pessoas mantêm o nível adequado de precisão e confiança.

7. Para jovens profissionais que entram hoje na conformidade, gestão de risco ou desenvolvimento de IA, que princípios ou hábitos pessoais aconselharias a cultivar para terem sucesso e se adaptarem a um ambiente tão rapidamente mutável?

Primeiro e mais importante: nunca parar de aprender. O progresso tecnológico não tem botão de pausa, e é preciso acompanhar ou ficar para trás. Não há meio-termo aqui.

Em segundo lugar, pensar de forma ampla. Com o avanço da IA, as fronteiras entre funções estão a ficar cada vez mais difusas—tecnologia, finanças e regulamentação estão a misturar-se. Estou convencido de que ter um conjunto de competências diversificado e uma mente aberta serão as características definitivas para os profissionais do futuro nesta área.

Terceiro—e uma continuação natural dos dois anteriores—ser adaptável. A mudança é constante, e a capacidade de ajustar rapidamente será uma grande vantagem.

Por último, desenvolver boas competências de comunicação e aprender a trabalhar em equipa. Como já discutimos, a conformidade situa-se na encruzilhada entre negócios, tecnologia e lei. Assim, ser capaz de mudar de ritmo e comunicar com pessoas de todos esses mundos será uma habilidade valiosa.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)