Carta ética para IA dos tribunais alerta para risco de "discriminação"

A carta ética para utilização de inteligência artificial (IA) pelos tribunais administrativos e fiscais alerta para riscos de "discriminação por algoritmos" e de proteção de dados, frisando que usar estas ferramentas não desresponsabiliza os juizes.

Notícia

© Shutterstock

Lusa
30/03/2025 12:08 ‧ há 2 dias por Lusa

Tech

IA

A carta ética, hoje publicada na página oficial do Conselho Superior dos Tribunais Administrativos e Fiscais (CSTAF), constata o potencial de criação de uma "nova normatividade" pelo uso de IA, "suscetível de, a longo prazo, levar a uma uniformização das decisões judiciais, assente não numa análise caso a caso da aplicação da lei, mas em estatísticas, análise de dados e ponderações.

 

"Nessa medida, a utilização da IA deve acautelar o direito a que ninguém seja submetido a uma decisão baseada apenas em processamento automatizado, a qual colide, desde logo, com o princípio do Estado de Direito", acrescentando a carta que "a utilização da IA pode constituir um fator de discriminação, por via da denominada discriminação por algoritmos", sobretudo "quando os fatores de discriminação introduzidos são repetidos e resultam, posteriormente, em padrão matemático".

A carta aponta a necessidade de treinar as ferramentas de IA com informação verificada e representativa, para evitar vieses e discriminações.

"O juiz não deverá conformar-se com a proposta do algoritmo e descuidar a responsabilidade pela sentença que profere. A interpretação, verificação e revisão dos conteúdos gerados é imprescindível para a utilização ética da IA no ambiente judicial", lê-se no documento.

A carta ética sublinha que o uso de IA "não desonera o juiz da sua intervenção qualificada", que permanece "responsável pelas decisões judiciais proferidas e pelo seu conteúdo", consagrando que operações como seleção de fatos, avaliação do caso concreto, interpretação e aplicação da lei "constituem tarefas que não dispensam a exclusividade da abordagem e intervenção humana multinível".

Por outro lado, alerta-se para uma "confiança excessiva no sistema" de IA, e para o "risco potencial para a perda de competências humanas a prazo".

O documento define ainda que o uso de IA "é incompatível" com "justiça preditiva", estando proibido o seu uso para antever resultados ou estabelecer padrões.

"A utilização de IA por forma a antever resultados com base em padrões históricos (como sejam, por exemplo, a utilização de jurisprudência anterior sobre uma base factual semelhante), tem o potencial de fazer prevalecer desigualdades, de violar as regras do processo equitativo, de comprometer a imparcialidade e de denegar a justiça no caso concreto", determina a carta ética.

Sobre proteção de dados, a carta alerta para a necessidade de proteção de dados em respeito das normais nacionais e internacionais, definindo que o uso de ferramentas de IA não pode expor informações sensíveis nem violar a proteção legalmente consagrada.

Leia Também: IA permite ao Google Maps usar informações de capturas de ecrã

Partilhe a notícia

Escolha do ocnsumidor 2025

Descarregue a nossa App gratuita

Nono ano consecutivo Escolha do Consumidor para Imprensa Online e eleito o produto do ano 2024.

* Estudo da e Netsonda, nov. e dez. 2023 produtodoano- pt.com
App androidApp iOS

Recomendados para si

Leia também

Últimas notícias


Newsletter

Receba os principais destaques todos os dias no seu email.

Mais lidas