Imagem gerada por IA
Inovação com inteligência artificial exige uma Governança integral
Com a chegada do ChatGPT, em novembro de 2022, houve a popularização da inteligência artificial generativa, possibilitando que qualquer pessoa com acesso à internet pudesse interagir com modelos avançados de linguagem.
Desde então, quase instantaneamente, executivos e colaboradores, dos seniores ao juniores foram tomados por várias questões, tais como: Como posso aprender sobre inteligência artificial? O que o meu concorrente está fazendo com inteligência artificial? Como posso implementar inteligência artificial para ganhar vantagem competitiva? E como a inteligência artificial vai impactar o meu trabalho?
Questões, dúvidas e discussões foram e ainda são levantadas em grande número dentro das instituições. Porém, com tantas pautas em debate, o que pode passar despercebido é a ausência de uma governança integral, que exige a participação de todas as áreas e atores — principais ou coadjuvantes.
Fundamentos da governança de inteligência artificial para o setor financeiro
Governança estratégica direcionada ao negócio
Governança de inteligência artificial começa com clareza de propósito.
Responder a questões que resolvam problemas, minimizam dores ou potencializam ganhos é essencial para iniciar uma governança sólida. Muitas instituições, movidas pela falta de clareza de seus propósitos, acabam implementando inteligência artificial em ações para as quais uma simples planilha seria o suficiente. Com isso, empregam energia, recursos e assumem riscos desnecessários.
Insight: Assumir riscos faz parte da caminhada. O importante é identificá-los e estabelecer um plano para lidar com eles.
Qualidade dos dados
Para o uso da inteligência artificial generativa, é condição sine qua non averiguar a qualidade dos dados. A metáfora é clara: se o “grão de café” estiver estragado, o “cafezinho” sairá ruim — só que em escala exponencial. Utilizar dados pessoais sensíveis, dados confidenciais do negócio, dados não estruturados ou com informações ocultas, ou ainda dados sem alinhamento com o propósito, resultará em erros e decisões arriscadas.
Definição das responsabilidades
As políticas e a definição de responsabilidades devem ser claras, especificando quem aprova, quem monitora e quem responde por cada inteligência artificial implementada. A ausência dessa definição de papéis abre espaço para decisões duvidosas e equivocadas.
Monitoramento contínuo
Implementar sistemas de inteligência artificial exige monitoramento contínuo, abrangendo, entre outros, os seguintes aspectos:
Performance: o sistema está operando de acordo com os requisitos estabelecidos?
Explicabilidade: é possível entender e explicar como cada decisão foi tomada?
Aderência: o sistema está de acordo com o propósito estabelecido e às regulações atuais (ex.: LGPD)?
Cinco riscos essenciais da inteligência artificial
Riscos operacionais: a inteligência artificial generativa pode exponenciar falhas operacionais o que requer supervisão humana constante.
Riscos reputacionais: negar crédito sem explicar claramente o motivo pode prejudicar a imagem da instituição e abrir espaço para a propagação de comentários negativos por parte dos clientes.
Discriminação algorítmica: modelos de sistema de inteligência artificial podem induzir a preconceitos e discriminação. Por exemplo: negar crédito a determinado grupo étnico não é apenas antiético, mas também antijurídico.
Risco de respostas incorretas: inteligência artificial generativas podem ter alucinações, ou seja, mostrar uma resposta inventada sem base comprovada. E no setor financeiro isso pode ocasionar em grandes perdas.
Segurança cibernética: assim como o setor financeiro utiliza inteligência artificial para se proteger — por exemplo, com modelos comportamentais para detectar padrões suspeitos em transações —, pessoas mal-intencionados também podem usá-la para propagar ataques mais bem elaborados.
Como se preparar para futura Regulação de Inteligência Artificial no Brasil
Ainda não temos um marco regulatório para a inteligência artificial e muito menos regulamentos setoriais. No entanto, ao olharmos para o setor financeiro, nos deparamos com algumas referências nacionais e internacionais que servem como parâmetros essenciais para a adoção de boas práticas, a saber:
O artigo 20 da LGPD (Lei 13.709/2018) garante ao titular dos dados o direito de receber informações claras sobre os critérios e procedimentos utilizados em decisões tomadas exclusivamente por sistemas automatizados. O titular pode solicitar a revisão dessas decisões, o que é crucial para assegurar transparência e controle sobre algoritmos que utilizam seus dados. Isso reforça a importância de explicar de forma adequada como esses sistemas chegam às suas conclusões.
O Projeto de Lei 2338/23, atualmente em discussão na Câmara dos Deputados, adota uma abordagem baseada em riscos, alinhada ao AI Act da União Europeia.
ISO/IEC 42001 — Sistema de Gestão para Inteligência Artificial é uma referência forte para estabelecer um ambiente seguro e confiável. A norma aborda fatores éticos, legais e tecnológicos; exige que a alta administração atue fortemente; trata de riscos e oportunidades relacionadas à inteligência artificial; exige o monitoramento eficaz através de indicadores, auditorias internas e revisões da gestão para garantir conformidade com os objetivos estabelecidos.
NIST AI Risk Management Framework — desenvolvido pelo National Institute of Standards and Technology, dos Estados Unidos — é um quadro de referência voluntário que orienta organizações na gestão de riscos associados a sistemas de inteligência artificial, abrangendo todo o seu ciclo de vida.
O setor financeiro, assim como o de saúde, é altamente regulado. Atualmente, diversas normas do Banco Central oferecem suporte relevante para a aplicação de práticas de governança em inteligência artificial que, combinadas a referências internacionais, colocam-nos em vantagem para estabelecer um ambiente seguro.
Além disso, adiciono um tópico importante no preparo da instituição para um ambiente regulatório seguro: Letramento em inteligência artificial. Letramento não se trata apenas de treinar os colaboradores para entender o funcionamento de um sistema de inteligência artificial, mas também de compreender e interagir com as particularidades de cada uma dessas novas linguagens e tecnologias, usando-as como aliada e para o desenvolvimento do pensamento crítico.
Até o próximo episódio.
Deixe o seu comentário sobre este post em Contato.