O que o episódio dos “cartazes” me revelou não foi uma decisão jurídica isolada, mas um padrão. Um padrão de velocidades diferentes, de prioridades assimétricas, de urgências que surgem apenas quando o alvo é politicamente sensível e ideologicamente inconveniente.
É aqui que a judicialização da política deixa de ser um conceito académico e se torna experiência quotidiana. Os tribunais, ao intervirem de forma expedita em matérias politicamente inflamadas, não se limitam a aplicar a lei: moldam o debate público, delimitam o campo do dizível, e acabam por estabelecer fronteiras morais que não foram sufragadas em eleições.
Foi a propósito da decisão judicial relativa aos cartazes do CHEGA — e, em particular, da fundamentação adoptada — que comecei a pensar numa hipótese que, até há pouco tempo, teria parecido extravagante: poderá a Inteligência Artificial generativa ajudar a entender uma fundamentação diferente, não por “ter opinião”, mas por conseguir comparar, com rigor e escala, casos semelhantes e decisões divergentes?
Assistimos, de facto, a uma nova revolução tecnológica, decorrente da massificação de sistemas de Inteligência Artificial generativa. Estes sistemas vão para além das técnicas clássicas de Machine Learning, avançando para o Deep Learning e para redes neuronais capazes de produzir texto, síntese e inferência estatística a partir de grandes corpora — incluindo corpora jurídicos. E já se vem experimentando o seu uso no domínio da interpretação e do apoio à decisão jurídica.
Mas é precisamente aqui que surge a objecção “clássica”: a interpretação jurídica pareceria estar conceptualmente vedada à intervenção da IA, por consistir numa actividade mental — e, portanto, por a IA não poder fazer mais do que imitar processos mentais, sem compreender verdadeiramente. Será isto verdade?
Mesmo admitindo que o processo interno de uma IA não é idêntico — nem sequer proximamente semelhante — ao processo mental pelo qual um jurista interpreta normas, pondera princípios e escolhe uma via argumentativa, fica em aberto um ponto decisivo: o resultado pode ser (ou não) efectivamente idêntico, sobretudo quando a tarefa em causa é comparar padrões, detectar inconsistências e mapear soluções jurisprudenciais em casos equivalentes.
Ou seja: a questão deixa de ser “a IA interpreta como um juiz” e passa a ser “a IA consegue, a partir de decisões anteriores, reconstruir uma fundamentação alternativa plausível, mostrando como casos semelhantes foram decididos de modo diferente, e em que premissas se apoiaram?”. Se conseguir, então a IA não substitui a decisão humana — mas pode expor o que muitas vezes fica submerso: a selecção das prioridades, a elasticidade dos critérios, e o modo como certas urgências aparecem, com zelo súbito, quando a política entra pela porta do tribunal.
