A inteligência artificial já está presente em praticamente todas as etapas do mercado financeiro: na análise de crédito, na detecção de fraudes, na recomendação de investimentos, no monitoramento de compliance. O problema é que a velocidade da adoção tecnológica raramente acompanha a velocidade da reflexão ética. E quando o algoritmo toma uma decisão inadequada, a pergunta que fica é: de quem é a responsabilidade?
Este artigo não é sobre apocalipse tecnológico. É sobre o que gestores, consultores e profissionais do mercado financeiro precisam entender agora sobre governança, vieses e responsabilidade regulatória no uso de IA.
O Que a Regulação Brasileira Já Estabelece
O Brasil ainda não tem uma lei específica para o uso de IA no setor financeiro, mas a ausência de norma não significa ausência de responsabilidade. A Resolução CVM 19 já aborda o tema diretamente: o Artigo 17 estabelece que a prestação de serviços de consultoria utilizando sistemas automatizados ou algoritmos está sujeita a obrigações específicas e, mais importante, não elimina as responsabilidades da consultoria pelas orientações e aconselhamentos realizados.
Em linguagem prática: se um algoritmo faz uma recomendação inadequada ao perfil do cliente, a responsabilidade não é “do sistema”. É da consultoria que decidiu implementá-lo.
A norma também exige que o código-fonte do sistema automatizado esteja disponível para inspeção da CVM na sede da empresa, em versão não compilada. Explicabilidade e auditabilidade não são diferenciais de uma empresa avançada. São obrigações regulatórias.
Além disso, o PL 2.338/2023, em tramitação no Congresso, propõe a criação do Sistema Nacional de Governança de Inteligência Artificial (SIA), com participação direta do Banco Central e da CVM. A estrutura prevê foco em transparência, mitigação de riscos e proteção de direitos, consolidando o que CVM e BC já defendem publicamente: supervisão humana em situações críticas, explicabilidade dos sistemas e transparência nos processos decisórios automatizados.
O Problema dos Vieses Algorítmicos
Um dos riscos mais subestimados no uso de IA no mercado financeiro é o viés. Algoritmos são treinados com dados históricos. E dados históricos carregam os preconceitos, as distorções e as assimetrias do passado.
No contexto de crédito, um modelo treinado com dados de uma época em que determinados perfis demográficos tinham menos acesso ao sistema financeiro pode perpetuar essa exclusão automaticamente, sem que nenhum humano perceba ou autorize. No contexto de recomendação de investimentos, um modelo treinado principalmente com dados de investidores de alta renda pode gerar sugestões inadequadas para o perfil de investidor de varejo.
A CVM reconhece esse risco. Em debates públicos sobre regulação de IA, a autarquia tem reforçado que a opacidade dos algoritmos e o risco de vieses podem comprometer a imparcialidade das decisões automatizadas, exigindo transparência, auditabilidade e supervisão humana constante.
Isso significa que adotar IA em processos de compliance ou recomendação sem um processo de revisão periódica dos modelos é, ao mesmo tempo, um risco regulatório e um risco ético.
Quatro Perguntas Que Toda Consultoria Deve Fazer Antes de Usar IA
Implementar IA sem responder a essas perguntas é construir sobre uma base frágil:
- O sistema é explicável? Quando o algoritmo chega a uma conclusão, é possível entender e documentar o caminho percorrido? Uma recomendação não auditável não protege o cliente e não protege a consultoria.
- Quem supervisa o modelo? IA não é uma solução de configurar uma vez e esquecer. Modelos degradam ao longo do tempo, os dados mudam, o comportamento dos clientes muda. Há uma pessoa responsável por revisar periodicamente os resultados?
- O modelo foi testado para vieses? Antes de escalar qualquer sistema de análise de clientes ou recomendação, é necessário testar se os resultados são consistentes entre diferentes perfis de usuários.
- A responsabilidade está clara nos contratos? Se a consultoria usa uma ferramenta de terceiro para análise automatizada, quem responde pela adequação das recomendações geradas? A Resolução CVM 19 é clara: a responsabilidade permanece na consultoria.
O Papel do Compliance Nesse Cenário
O compliance não pode ser a última linha de defesa depois que a IA já tomou decisões por meses. Ele precisa estar presente desde o início: na seleção do fornecedor de tecnologia, na definição dos critérios de auditoria dos modelos, na política de revisão periódica e na documentação de cada processo automatizado.
A SEC americana já inclui o uso de IA nas suas prioridades de exame para consultores registrados, questionando como a tecnologia impacta as recomendações e se os clientes são adequadamente informados sobre isso. O Brasil segue essa direção.
Mais de 88% dos bancos brasileiros já utilizam IA generativa, segundo a pesquisa Febraban de Tecnologia Bancária 2025. O mercado de consultorias independentes está no início desse processo. Quem estruturar a governança agora vai ter menos trabalho de remediação depois.
Por Onde Começar?
Se a sua consultoria usa ou pretende usar alguma ferramenta de IA no processo de análise ou recomendação, o primeiro passo é documentar o que o sistema faz, como ele foi treinado e quem na empresa é responsável por monitorar os resultados.
O segundo passo é revisar se essa utilização está alinhada com o Artigo 17 da Resolução CVM 19 e se há registros suficientes para uma eventual fiscalização.
Tecnologia bem governada é vantagem competitiva. Tecnologia sem governança é passivo regulatório.
Quer entender como estruturar a governança de IA na sua consultoria? Entre em contato.
Referências: Resolução CVM 19/2021 (art. 17), PL 2.338/2023, Pesquisa Febraban de Tecnologia Bancária 2025, SEC FY2026 Examination Priorities, Revista RI nº 296