Por: Flora Lopes*
A inteligência artificial está, de facto, a revolucionar inúmeras áreas, incluindo o sistema judicial. Desde a automatização de processos burocráticos até à utilização de algoritmos para analisar jurisprudência e prever decisões judiciais.
O uso de algoritmos para analisar precedentes, prever decisões e até sugerir sentenças judiciais gera tanto entusiasmo como preocupações. Por um lado, a IA pode aumentar a eficácia dos tribunais, contribuir para reduzir a morosidade processual, globalmente considerada, e garantir maior uniformidade nas decisões. Por outro, a sua aplicação levanta questões pertinentes sobre imparcialidade, transparência e responsabilidade, afectando directamente os direitos fundamentais dos cidadãos.
Um dos principais benefícios da IA no plano judiciário é a sua capacidade de processar grandes volumes de informação, de forma célere, permitindo que juízes tenham acesso imediato às bases de informação institucionais, de identidade, de registo criminal, de registo patrimonial e comercial, de pessoas colectivas, de jurisprudência e até doutrinais, entre outras, potenciando um amplo acesso à informação e uma argumentação bem mais estruturada. Com efeito, os algoritmos ajustados às matérias em equação podem ajudar na determinação de padrões de configuração de decisões mais coerentes.
Países como os Estados Unidos e a Estónia já experimentam sistemas automatizados para análise de casos e até para sugerir resoluções de litígios.
Mas, em geral, na área jurídica, a inteligência artificial ainda não goza da mesma aceitação que tem em sectores como o comércio ou a medicina. No entanto, começam a delinear-se caminhos para a sua integração na prática do Direito, especialmente graças às novas possibilidades proporcionadas pelo machine learning. Este mecanismo tem revelado potencialidades inovadoras no âmbito jurídico, contribuindo para a tomada de decisões, a análise documental e a interpretação de contextos legais, facilitando o exercício da actividade pelos profissionais da área.
Com o avanço destas tecnologias, o conceito de justiça preditiva tem vindo a consolidar-se no direito penal. Esse fenómeno reporta-se à digitalização das decisões judiciais e ao acesso alargado à jurisprudência, permitindo que softwares analisem dados e identifiquem padrões recorrentes em várias deliberações. Como consequência, ferramentas de avaliação de risco (risk assessment tools) passaram a ser consideradas um apoio ao juiz no processo de decisão.
No entanto, há riscos significativos envolvidos na justiça algorítmica. Um dos principais riscos é a discriminação algorítmica, em que as decisões automatizadas podem reflectir e perpetuar “viéses” históricos existentes nos dados nos quais os modelos foram treinados. Se um algoritmo for treinado com dados judiciais que reflectem desigualdades sociais, poderá reforçar essas desigualdades em vez de as mitigar, ameaçando o princípio da igualdade e não discriminação, um valor de referência fundamental para a justiça.
Acresce que a falta de transparência dos sistemas algorítmicos pode dificultar a compreensão do modo como certas decisões são tomadas, comprometendo o direito à administração da justiça aberta e ao devido processo legal.
Outro desafio crítico é a responsabilidade pelas decisões tomadas com auxílio da IA. Se um juiz confiar num sistema para obter uma sugestão de sentença, quem responderá no caso de ocorrerem erros ou injustiças? A automatização tende a reduzir a autonomia dos magistrados, sobretudo, se depositarem uma confiança excessiva nos algoritmos, podendo inquinar o sentido crítico e humano na interpretação da lei e avaliação da situação que tenha em mãos.
Fora do ambiente jurídico, a IA também causa impacto em direitos fundamentais, como o da privacidade e protecção de dados. A recolha massiva de informações por sistemas automatizados gera preocupações sobre a vigilância e o uso indevido de dados pessoais que terceiros possam fazer.
Regulamentações como o RGPD (Regulamento Geral sobre a Protecção de Dados) e a LGPD Lei Geral de Protecção de Dados) procuram mitigar esses riscos, garantindo maior confiabilidade e controlo sobre os dados dos cidadãos.
Outro impacto relevante ocorre em matéria de liberdade de expressão e acesso à informação pelo público em geral. As plataformas digitais utilizam IA para filtrar conteúdos, operar na área da desinformação, mas também limita a diversidade de opiniões. Muitas bolhas informativas podem reduzir a capacidade de opção dos cidadãos no acesso às múltiplas perspectivas, por vezes, não isentas, afectando o debate democrático.
No campo do direito ao trabalho, a automatização impulsionada pela IA pode sobrepor novos postos de trabalho aos empregos tradicionais, exigindo adaptação do mercado e requalificação profissional. Para evitar um desemprego estrutural, as políticas públicas devem garantir inclusão e apoio aos trabalhadores afectados pela transformação digital.
Diante desses desafios, alguns especialistas defendem uma regulamentação mais exigente para a implementação da IA em certas áreas sensíveis como o judiciário. Normas que garantam a transparência e controle dos dados tratados pelos algoritmos, o direito a reagir a decisões automatizadas e medidas para mitigar “viéses” são fundamentais para obter um ponto de equilíbrio entre a inovação e a justiça.
A discussão sobre justiça algorítmica e os direitos fundamentais está apenas a dar os primeiros passos e o seu impacto continuará a moldar o futuro dos sistemas legais e sociais em todo o mundo. Para que a IA seja uma ferramenta de avanço e não de retrocesso, é essencial que o seu desenvolvimento seja ético, responsável e supervisionado, garantindo que o progresso tecnológico respeite os valores democráticos e a dignidade humana.
*Mestre em Direito e Prática Jurídica, Especialidade Jurídico-Forenses, pela Faculdade de Direito da Universidade de Lisboa.
