Anunciou-se que a inteligência artificial desenvolvida pelo Serviço Federal de Processamento de Dados (Serpro) irá transformar o Conselho Administrativo de Recursos Fiscais (Carf), reduzindo o tempo médio de tramitação dos processos de 6 anos para 1 ano. A solução foi batizada de IARA (fonte: serpro.gov.br). A princípio, pode ser uma boa notícia ... ou não.
No folclore brasileiro, IARA é uma sereia – parte mulher, parte peixe - com grande beleza e voz sedutora, conhecida por atrair homens que estão nas margens de rios, levando-os definitivamente para o fundo d´água.
Assim como a sereia IARA, há um não folclórico medo da outra IARA – a inteligência artificial do Carf – fazer submergirem os contribuintes, justificando alguma desconfiança no anúncio.
É inegável que recursos tecnológicos são necessários para imprimir eficiência em todos os níveis da administração pública. É certo que a sociedade quer e deve apoiar a iniciativa, desde que esteja segura da imparcialidade e da neutralidade da ferramenta.
Segundo informado pelo Serpro “o sistema analisa o cumprimento de requisitos, separa processos de acordo com os pedidos, elabora resumos e, ‘destaco’, até compõe decisões com base em jurisprudências, substituindo tarefas antes desempenhadas por assessores. A tecnologia introduz o conceito da Administração Tributária 3.0, que vai além da digitalização, trazendo inteligência para interpretar relatórios, identificar alegações dos contribuintes, consultar jurisprudência e sugerir decisões.”
Reitero que é louvável a iniciativa, mas o seu uso deve ser definido com cautela e transparência, especialmente para conferir a necessária credibilidade às decisões que com o apoio de IARA serão proferidas.
Isso porque é cediço que “o viés de inteligência artificial, também chamado de viés de aprendizado de máquina ou viés de algoritmo, refere-se à ocorrência de resultados tendenciosos devido a vieses humanos que distorcem os dados de treinamento originais ou o algoritmo de IA, levando a resultados distorcidos e potencialmente prejudiciais” (Holdsworth, IBM, 2023).
Os dados disponibilizados para usar qualquer sistema de inteligência artificial precisam ser suficientes e adequados para utilização prática e confiável do sistema. Os dados são sempre colhidos do passado, inclusive com erros e iniquidades anteriores. A inteligência artificial não entende se os dados a ela oferecidos são objetivos ou subjetivos, ou seja, podem já carregar um juízo de valor apto a interferir na conclusão. Mais do que isso, os algoritmos podem ampliar os vieses da ferramenta, pois “quem desenvolve IAs geralmente está focado em atingir um objetivo específico, visando obter o resultado mais preciso com os dados disponíveis” (ilumeo.com.br, 2021).
Os desenvolvedores da inteligência artificial, especialmente quando destinada a operacionalizar questões ligadas ao mundo do direito, devem ter uma dificuldade a mais para automatizarem decisões, tamanha a quantidade de ciências que se entrelaçam com o direito, potencializando, sobretudo, a dificuldade de definir o que é imparcial ou justo. E sabemos que no direito há “trade-offs” na aplicação de normas e princípios que se chocam, exigindo a ponderação humana na busca por uma solução mais justa.
Os vieses em todas as ferramentas de inteligência artificial são fontes de muitos debates e não por outra razão ainda não foram adotados pelo Poder Judiciário para “compor decisões”. Parece claro, ainda que para não especialistas como eu, que o viés pode fazer um sistema apresentado como neutro e sem preconceitos reproduza formas de discriminação contra determinados grupos. O documentário “Coded Bias” (Preconceito Codificado) veiculado em um canal de streaming abordou exemplos de violações de direitos por força da inserção de vieses humanos em algoritmos.
Os dados, os algoritmos e as pessoas são as fontes possíveis de vieses. Mas, em última análise, “todas se resumem às pessoas, pois são elas que constroem a IA e selecionam os dados de treinamento” (Ilumeo, op. cit).
No artigo “Notes from the AI Frontier: Tackling Bias in AI (and in Humans)” (fonte: McKinsey Global Institute) destaca-se a necessidade de julgamento humano para garantir que decisões suportadas por sistemas de inteligência artificial sejam justas. Embora métricas estatísticas e definições de justiça sejam úteis, elas não capturam totalmente as nuances dos contextos onde os sistemas serão implementados.
O Carf é uma instituição centenária e de extrema importância na pacificação de litígios entre o Fisco e contribuintes, contando com integrantes altamente técnicos e buscando a máxima qualidade de suas decisões. Não se espera que as decisões sejam totalmente automatizadas, mas que as ferramentas tecnológicas sejam cautelosamente utilizadas como suporte de pesquisa aos seus julgadores.
A sociedade civil, a academia, o empresariado, a advocacia pública e privada deveriam ser convidados a acompanhar a construção deste sistema, sempre com a certeza de que o pré-consentimento dos agentes que atuam no microssistema do processo administrativo fiscal decorre do atestado de que há imparcialidade, neutralidade e, enfim, eficiência da ferramenta que contribuirá para a desejada justiça administrativa.
Nunca é demais relembrar que o Carf não é órgão arrecadador, mas órgão pacificador e estabilizador de conflitos fiscais. É preciso ter empatia e colocar-se no lugar do outro, notadamente daqueles contra quem o Estado arrecadador lança sua poderosa força, por não raras vezes de forma exagerada e injusta, atribuindo-lhes a genérica pecha de devedores, detentos ou sonegadores.
Em tempos de árduo esforço para restabelecer a relação de confiança entre Fisco e contribuinte, não poderá IARA, nem a sereia e nem a inteligência artificial, assumir o menor risco de seduzir e afundar aqueles que se encantarem por sua beleza.