Governança de IA: Como se preparar para a futura Regulação de Inteligência Artificial no Brasil

Imagem gerada por IA

Inovação com inteligência artificial exige uma Governança integral

Com a chegada do ChatGPT, em novembro de 2022, houve a popularização da inteligência artificial generativa, possibilitando que qualquer pessoa com acesso à internet pudesse interagir com modelos avançados de linguagem.

Desde então, quase instantaneamente, executivos e colaboradores, dos seniores ao juniores foram tomados por várias questões, tais como: Como posso aprender sobre inteligência artificial? O que o meu concorrente está fazendo com inteligência artificial? Como posso implementar inteligência artificial para ganhar vantagem competitiva? E como a inteligência artificial vai impactar o meu trabalho?

Questões, dúvidas e discussões foram e ainda são levantadas em grande número dentro das instituições. Porém, com tantas pautas em debate, o que pode passar despercebido é a ausência de uma governança integral, que exige a participação de todas as áreas e atores — principais ou coadjuvantes.

Fundamentos da governança de inteligência artificial para o setor financeiro

Governança estratégica direcionada ao negócio

Governança de inteligência artificial começa com clareza de propósito.

Responder a questões que resolvam problemas, minimizam dores ou potencializam ganhos é essencial para iniciar uma governança sólida. Muitas instituições, movidas pela falta de clareza de seus propósitos, acabam implementando inteligência artificial em ações para as quais uma simples planilha seria o suficiente. Com isso, empregam energia, recursos e assumem riscos desnecessários.

Insight: Assumir riscos faz parte da caminhada. O importante é identificá-los e estabelecer um plano para lidar com eles.

Qualidade dos dados

Para o uso da inteligência artificial generativa, é condição sine qua non averiguar a qualidade dos dados. A metáfora é clara: se o “grão de café” estiver estragado, o “cafezinho” sairá ruim — só que em escala exponencial. Utilizar dados pessoais sensíveis, dados confidenciais do negócio, dados não estruturados ou com informações ocultas, ou ainda dados sem alinhamento com o propósito, resultará em erros e decisões arriscadas.

Definição das responsabilidades

As políticas e a definição de responsabilidades devem ser claras, especificando quem aprova, quem monitora e quem responde por cada inteligência artificial implementada. A ausência dessa definição de papéis abre espaço para decisões duvidosas e equivocadas.

Monitoramento contínuo

Implementar sistemas de inteligência artificial exige monitoramento contínuo, abrangendo, entre outros, os seguintes aspectos:

Performance: o sistema está operando de acordo com os requisitos estabelecidos?

Explicabilidade: é possível entender e explicar como cada decisão foi tomada?

Aderência: o sistema está de acordo com o propósito estabelecido e às regulações atuais (ex.: LGPD)?

Cinco riscos essenciais da inteligência artificial

Riscos operacionais: a inteligência artificial generativa pode exponenciar falhas operacionais o que requer supervisão humana constante.

Riscos reputacionais: negar crédito sem explicar claramente o motivo pode prejudicar a imagem da instituição e abrir espaço para a propagação de comentários negativos por parte dos clientes.

Discriminação algorítmica: modelos de sistema de inteligência artificial podem induzir a preconceitos e discriminação. Por exemplo: negar crédito a determinado grupo étnico não é apenas antiético, mas também antijurídico.

Risco de respostas incorretas: inteligência artificial generativas podem ter alucinações, ou seja, mostrar uma resposta inventada sem base comprovada. E no setor financeiro isso pode ocasionar em grandes perdas.  

Segurança cibernética: assim como o setor financeiro utiliza inteligência artificial para se proteger — por exemplo, com modelos comportamentais para detectar padrões suspeitos em transações —, pessoas mal-intencionados também podem usá-la para propagar ataques mais bem elaborados.

Como se preparar para futura Regulação de Inteligência Artificial no Brasil

Ainda não temos um marco regulatório para a inteligência artificial e muito menos regulamentos setoriais. No entanto, ao olharmos para o setor financeiro, nos deparamos com algumas referências nacionais e internacionais que servem como parâmetros essenciais para a adoção de boas práticas, a saber:

O artigo 20 da LGPD (Lei 13.709/2018) garante ao titular dos dados o direito de receber informações claras sobre os critérios e procedimentos utilizados em decisões tomadas exclusivamente por sistemas automatizados. O titular pode solicitar a revisão dessas decisões, o que é crucial para assegurar transparência e controle sobre algoritmos que utilizam seus dados. Isso reforça a importância de explicar de forma adequada como esses sistemas chegam às suas conclusões.

O Projeto de Lei 2338/23, atualmente em discussão na Câmara dos Deputados, adota uma abordagem baseada em riscos, alinhada ao AI Act da União Europeia.

ISO/IEC 42001 —­ Sistema de Gestão para Inteligência Artificial é uma referência forte para estabelecer um ambiente seguro e confiável. A norma aborda fatores éticos, legais e tecnológicos; exige que a alta administração atue fortemente; trata de riscos e oportunidades relacionadas à inteligência artificial; exige o monitoramento eficaz através de indicadores, auditorias internas e revisões da gestão para garantir conformidade com os objetivos estabelecidos.

NIST AI Risk Management Framework — desenvolvido pelo National Institute of Standards and Technology, dos Estados Unidos — é um quadro de referência voluntário que orienta organizações na gestão de riscos associados a sistemas de inteligência artificial, abrangendo todo o seu ciclo de vida.

O setor financeiro, assim como o de saúde, é altamente regulado. Atualmente, diversas normas do Banco Central oferecem suporte relevante para a aplicação de práticas de governança em inteligência artificial que, combinadas a referências internacionais, colocam-nos em vantagem para estabelecer um ambiente seguro.

Além disso, adiciono um tópico importante no preparo da instituição para um ambiente regulatório seguro: Letramento em inteligência artificial. Letramento não se trata apenas de treinar os colaboradores para entender o funcionamento de um sistema de inteligência artificial, mas também de compreender e interagir com as particularidades de cada uma dessas novas linguagens e tecnologias, usando-as como aliada e para o desenvolvimento do pensamento crítico.

Até o próximo episódio.

Deixe o seu comentário sobre este post em Contato.