Fio da Meada
Group CopyGroup 5 CopyGroup 13 CopyGroup 5 Copy 2Group 6 Copy
PUBLICIDADE
Por — São Paulo


Anunciou-se que a inteligência artificial desenvolvida pelo Serviço Federal de Processamento de Dados (Serpro) irá transformar o Conselho Administrativo de Recursos Fiscais (Carf), reduzindo o tempo médio de tramitação dos processos de 6 anos para 1 ano. A solução foi batizada de IARA (fonte: serpro.gov.br). A princípio, pode ser uma boa notícia ... ou não.

No folclore brasileiro, IARA é uma sereia – parte mulher, parte peixe - com grande beleza e voz sedutora, conhecida por atrair homens que estão nas margens de rios, levando-os definitivamente para o fundo d´água.

Assim como a sereia IARA, há um não folclórico medo da outra IARA – a inteligência artificial do Carf – fazer submergirem os contribuintes, justificando alguma desconfiança no anúncio.

É inegável que recursos tecnológicos são necessários para imprimir eficiência em todos os níveis da administração pública. É certo que a sociedade quer e deve apoiar a iniciativa, desde que esteja segura da imparcialidade e da neutralidade da ferramenta.

Segundo informado pelo Serpro “o sistema analisa o cumprimento de requisitos, separa processos de acordo com os pedidos, elabora resumos e, ‘destaco’, até compõe decisões com base em jurisprudências, substituindo tarefas antes desempenhadas por assessores. A tecnologia introduz o conceito da Administração Tributária 3.0, que vai além da digitalização, trazendo inteligência para interpretar relatórios, identificar alegações dos contribuintes, consultar jurisprudência e sugerir decisões.”

Reitero que é louvável a iniciativa, mas o seu uso deve ser definido com cautela e transparência, especialmente para conferir a necessária credibilidade às decisões que com o apoio de IARA serão proferidas.

Isso porque é cediço que “o viés de inteligência artificial, também chamado de viés de aprendizado de máquina ou viés de algoritmo, refere-se à ocorrência de resultados tendenciosos devido a vieses humanos que distorcem os dados de treinamento originais ou o algoritmo de IA, levando a resultados distorcidos e potencialmente prejudiciais” (Holdsworth, IBM, 2023).

Os dados disponibilizados para usar qualquer sistema de inteligência artificial precisam ser suficientes e adequados para utilização prática e confiável do sistema. Os dados são sempre colhidos do passado, inclusive com erros e iniquidades anteriores. A inteligência artificial não entende se os dados a ela oferecidos são objetivos ou subjetivos, ou seja, podem já carregar um juízo de valor apto a interferir na conclusão. Mais do que isso, os algoritmos podem ampliar os vieses da ferramenta, pois “quem desenvolve IAs geralmente está focado em atingir um objetivo específico, visando obter o resultado mais preciso com os dados disponíveis” (ilumeo.com.br, 2021).

Os desenvolvedores da inteligência artificial, especialmente quando destinada a operacionalizar questões ligadas ao mundo do direito, devem ter uma dificuldade a mais para automatizarem decisões, tamanha a quantidade de ciências que se entrelaçam com o direito, potencializando, sobretudo, a dificuldade de definir o que é imparcial ou justo. E sabemos que no direito há “trade-offs” na aplicação de normas e princípios que se chocam, exigindo a ponderação humana na busca por uma solução mais justa.

Os vieses em todas as ferramentas de inteligência artificial são fontes de muitos debates e não por outra razão ainda não foram adotados pelo Poder Judiciário para “compor decisões”. Parece claro, ainda que para não especialistas como eu, que o viés pode fazer um sistema apresentado como neutro e sem preconceitos reproduza formas de discriminação contra determinados grupos. O documentário “Coded Bias” (Preconceito Codificado) veiculado em um canal de streaming abordou exemplos de violações de direitos por força da inserção de vieses humanos em algoritmos.

Os dados, os algoritmos e as pessoas são as fontes possíveis de vieses. Mas, em última análise, “todas se resumem às pessoas, pois são elas que constroem a IA e selecionam os dados de treinamento” (Ilumeo, op. cit).

No artigo “Notes from the AI Frontier: Tackling Bias in AI (and in Humans)” (fonte: McKinsey Global Institute) destaca-se a necessidade de julgamento humano para garantir que decisões suportadas por sistemas de inteligência artificial sejam justas. Embora métricas estatísticas e definições de justiça sejam úteis, elas não capturam totalmente as nuances dos contextos onde os sistemas serão implementados.

O Carf é uma instituição centenária e de extrema importância na pacificação de litígios entre o Fisco e contribuintes, contando com integrantes altamente técnicos e buscando a máxima qualidade de suas decisões. Não se espera que as decisões sejam totalmente automatizadas, mas que as ferramentas tecnológicas sejam cautelosamente utilizadas como suporte de pesquisa aos seus julgadores.

A sociedade civil, a academia, o empresariado, a advocacia pública e privada deveriam ser convidados a acompanhar a construção deste sistema, sempre com a certeza de que o pré-consentimento dos agentes que atuam no microssistema do processo administrativo fiscal decorre do atestado de que há imparcialidade, neutralidade e, enfim, eficiência da ferramenta que contribuirá para a desejada justiça administrativa.

Nunca é demais relembrar que o Carf não é órgão arrecadador, mas órgão pacificador e estabilizador de conflitos fiscais. É preciso ter empatia e colocar-se no lugar do outro, notadamente daqueles contra quem o Estado arrecadador lança sua poderosa força, por não raras vezes de forma exagerada e injusta, atribuindo-lhes a genérica pecha de devedores, detentos ou sonegadores.

Em tempos de árduo esforço para restabelecer a relação de confiança entre Fisco e contribuinte, não poderá IARA, nem a sereia e nem a inteligência artificial, assumir o menor risco de seduzir e afundar aqueles que se encantarem por sua beleza.

Fachada do Carf — Foto: Ruy Baron/Valor
Fachada do Carf — Foto: Ruy Baron/Valor
Mais recente Próxima O avesso da reforma tributária: O antes e o depois das receitas municipais

Agora o Valor Econômico está no WhatsApp!

Siga nosso canal e receba as notícias mais importantes do dia!

Mais do Valor Econômico

Para colocar mais 2,75% em mercado, a Caixa Seguridade teria de fazer uma oferta de cerca de R$ 1,1 bilhão

Os rendimentos atingiram o pico acima de 4,7% em abril, depois recuaram, antes de começar a se recuperar

Dólar avançou mais de 7% desde o fim de setembro, refletindo as expectativas de que as políticas do presidente Donald Trump devem acelerar o crescimento

Na terça-feira governo chinês reafirmou planos de novos estímulos fiscais

Estímulos na China podem guiar mercados em dia de baixa liquidez

Certame terá possibilidade de vendas de até US$ 3 bilhões, a ocorrerem a partir de 9h15

Ator tinha câncer de próstata e morreu em decorrência de uma sepse pulmonar, na Clínica São Vicente, na Gávea

Morre Ney Latorraca, ator de 'Vamp', 'TV Pirata' e outros papéis marcantes

Com a operação, 25 hospitais, seis clínicas oncológicas e seis clínicas médicas das companhias passarão a ser controladas por uma joint venture

Agenda de empresas: Cade aprova parceria entre Amil e Dasa

Em Tóquio, a Nissan Motor subiu 6,6% e a Toyota Motor ganhou 6,0%, após as empresas anunciarem negociações oficiais para se fundir

O presidente do BoJ disse que, como a economia ainda está em transição para uma inflação estável de 2%, o banco manterá condições monetárias acomodatícias

Segundo estudo elaborado pela Impacta a pedido da KPTL, Brasil tem grande potencial no setor florestal, mas precisa alavancar recursos para escalar as soluções sustentáveis e alavancar mais negócios

Só 10% dos investimentos de venture capital no Brasil são voltados para teses de Florestas e Clima