IA e o Risco Financeiro: Uma Nova Fronteira de Proteção
Imagine delegar uma tarefa financeira a um agente de inteligência artificial, como converter dinheiro, e, devido a uma “alucinação” da IA, seu capital evaporar. Essa preocupação se torna cada vez mais real com o avanço da IA agentiva, onde agentes autônomos executam ações com consequências financeiras diretas. A grande questão é: quem é responsável quando algo dá errado?
Atualmente, a resposta é incerta, e essa falta de clareza representa uma vulnerabilidade significativa na era da IA agentiva. Para solucionar esse dilema, um grupo de pesquisadores de instituições como Microsoft Research, Universidade Columbia e Google DeepMind propôs uma nova estrutura de proteção financeira.
Essa iniciativa, batizada de Agentic Risk Standard (ARS), visa replicar para os agentes de IA a segurança oferecida por custódias, seguros e câmaras de compensação nas transações financeiras tradicionais. A proposta busca garantir que o usuário esteja protegido, mesmo quando a IA comete erros inesperados. As informações foram divulgadas em um artigo publicado em 8 de abril, com o padrão disponibilizado em código aberto no GitHub.
A “Lacuna de Garantia” na IA Agentiva
A equipe de pesquisadores identifica um problema central que chamam de “lacuna de garantia”. Essa “lacuna” se refere à desconexão entre a confiabilidade probabilística que as técnicas de segurança de IA oferecem e as garantias executáveis que os usuários necessitam antes de delegar tarefas de alto risco. Sem limites claros para perdas potenciais, os usuários tendem a restringir a delegação de tarefas à IA apenas para atividades de baixo risco, freando a adoção mais ampla de serviços baseados em agentes.
Modelos de linguagem de grande escala são inerentemente estocásticos, o que significa que, mesmo com treinamento avançado, eles podem “alucinar” e cometer erros. Quando esses agentes estão conectados a contas financeiras ou executam chamadas de API, uma única falha pode resultar em perdas concretas e imediatas. A pesquisa foca em ir além da simples redução da probabilidade de falha, buscando formalizar o que acontece financeiramente quando o erro ocorre.
Agentic Risk Standard (ARS): Segurança Inspirada na Engenharia Financeira
O ARS se inspira em séculos de engenharia financeira para criar um sistema de proteção robusto. A estrutura introduz um sistema de liquidação em camadas. Isso inclui contas de custódia que retêm taxas de serviço até a entrega verificada da tarefa, exigências de colateral que provedores de serviços de IA devem depositar antes de acessar fundos de usuários, e a opção de subscrição. Na subscrição, um terceiro assume o risco, precifica o perigo de uma falha da IA, cobra um prêmio e se compromete a reembolsar o usuário em caso de problemas.
Essa abordagem distingue entre tarefas de serviço padrão, como gerar um relatório, que têm exposição financeira limitada e podem ser resolvidas com custódia, e tarefas que envolvem movimentação de recursos, como negociação ou alavancagem. Nestes casos, onde o acesso ao capital do usuário é necessário antes da verificação, a subscrição se torna essencial, espelhando a lógica dos mercados de derivativos com câmaras de compensação.
Reguladores e o Futuro da IA Financeira
Órgãos reguladores já começam a se atentar para os riscos. Um relatório da Finra em dezembro de 2023 incluiu uma seção sobre IA generativa, alertando corretoras sobre a necessidade de procedimentos para lidar com “alucinações” e examinar agentes de IA que possam agir fora do escopo autorizado. O ARS se apresenta como um protocolo, uma “máquina padronizada” que define como fundos são bloqueados, reivindicações registradas e reembolsos acionados em caso de falha da IA.
Os pesquisadores reconhecem que o ARS é uma camada dentro de uma estrutura maior de confiança, e o desafio futuro será construir modelos precisos para precificar o risco do comportamento agentivo. Este trabalho representa um primeiro passo crucial para estabelecer uma estrutura que abranja o processo de transações autônomas de agentes e a avaliação de risco associada, abrindo caminho para uma adoção mais segura e confiável da IA no setor financeiro.





