Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors
Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

IA Alucina com Seu Dinheiro? Novo Padrão Busca Proteger Usuários na Era das Transações Autônomas de Agentes

IA e o Risco Financeiro: Uma Nova Fronteira de Proteção

Imagine delegar uma tarefa financeira a um agente de inteligência artificial, como converter dinheiro, e, devido a uma “alucinação” da IA, seu capital evaporar. Essa preocupação se torna cada vez mais real com o avanço da IA agentiva, onde agentes autônomos executam ações com consequências financeiras diretas. A grande questão é: quem é responsável quando algo dá errado?

Atualmente, a resposta é incerta, e essa falta de clareza representa uma vulnerabilidade significativa na era da IA agentiva. Para solucionar esse dilema, um grupo de pesquisadores de instituições como Microsoft Research, Universidade Columbia e Google DeepMind propôs uma nova estrutura de proteção financeira.

Essa iniciativa, batizada de Agentic Risk Standard (ARS), visa replicar para os agentes de IA a segurança oferecida por custódias, seguros e câmaras de compensação nas transações financeiras tradicionais. A proposta busca garantir que o usuário esteja protegido, mesmo quando a IA comete erros inesperados. As informações foram divulgadas em um artigo publicado em 8 de abril, com o padrão disponibilizado em código aberto no GitHub.

A “Lacuna de Garantia” na IA Agentiva

A equipe de pesquisadores identifica um problema central que chamam de “lacuna de garantia”. Essa “lacuna” se refere à desconexão entre a confiabilidade probabilística que as técnicas de segurança de IA oferecem e as garantias executáveis que os usuários necessitam antes de delegar tarefas de alto risco. Sem limites claros para perdas potenciais, os usuários tendem a restringir a delegação de tarefas à IA apenas para atividades de baixo risco, freando a adoção mais ampla de serviços baseados em agentes.

Modelos de linguagem de grande escala são inerentemente estocásticos, o que significa que, mesmo com treinamento avançado, eles podem “alucinar” e cometer erros. Quando esses agentes estão conectados a contas financeiras ou executam chamadas de API, uma única falha pode resultar em perdas concretas e imediatas. A pesquisa foca em ir além da simples redução da probabilidade de falha, buscando formalizar o que acontece financeiramente quando o erro ocorre.

Agentic Risk Standard (ARS): Segurança Inspirada na Engenharia Financeira

O ARS se inspira em séculos de engenharia financeira para criar um sistema de proteção robusto. A estrutura introduz um sistema de liquidação em camadas. Isso inclui contas de custódia que retêm taxas de serviço até a entrega verificada da tarefa, exigências de colateral que provedores de serviços de IA devem depositar antes de acessar fundos de usuários, e a opção de subscrição. Na subscrição, um terceiro assume o risco, precifica o perigo de uma falha da IA, cobra um prêmio e se compromete a reembolsar o usuário em caso de problemas.

Essa abordagem distingue entre tarefas de serviço padrão, como gerar um relatório, que têm exposição financeira limitada e podem ser resolvidas com custódia, e tarefas que envolvem movimentação de recursos, como negociação ou alavancagem. Nestes casos, onde o acesso ao capital do usuário é necessário antes da verificação, a subscrição se torna essencial, espelhando a lógica dos mercados de derivativos com câmaras de compensação.

Reguladores e o Futuro da IA Financeira

Órgãos reguladores já começam a se atentar para os riscos. Um relatório da Finra em dezembro de 2023 incluiu uma seção sobre IA generativa, alertando corretoras sobre a necessidade de procedimentos para lidar com “alucinações” e examinar agentes de IA que possam agir fora do escopo autorizado. O ARS se apresenta como um protocolo, uma “máquina padronizada” que define como fundos são bloqueados, reivindicações registradas e reembolsos acionados em caso de falha da IA.

Os pesquisadores reconhecem que o ARS é uma camada dentro de uma estrutura maior de confiança, e o desafio futuro será construir modelos precisos para precificar o risco do comportamento agentivo. Este trabalho representa um primeiro passo crucial para estabelecer uma estrutura que abranja o processo de transações autônomas de agentes e a avaliação de risco associada, abrindo caminho para uma adoção mais segura e confiável da IA no setor financeiro.

Veja também

Newsletter

Assine nossa newsletter e fique por dentro das novidades!

Mais Vistos