Vanessa Massaro

Inauguramos a discussão desse tema, porque trata-se de um assunto bastante complexo, mas que certamente como operadores do direito, iremos nos deparar num futuro não muito distante.

A utilização da inteligência artificial como instrumento de suporte para o trabalho dos magistrados é um fenômeno ainda muito embrionário, mesmo em países onde o tema tem sido bastante discutido.

Entre as diversas soluções colocadas em pauta pelos estudiosos em relação a esse tema, o que observa-se é a necessidade de haver um interesse maior na análise e no tratamento ( no sentido de utlilização ) da jurisprudência, para que se possa conseguir reduzir a área de abrangência do juízo de convencimento do magistrado, e assim tentar garantir uma maior previsibilidade das decisões judiciais, bem como, efetuar uma análise sobre a efetividade dessas novas tecnologias, qualificadas como “justiça preventiva”, a luz das características da inteligência artificial e em particular da “machine learnig”, ou seja o aprendizado automático proporcionado por esse sistema. Como também analisar a efetividade na utilização desses sistemas em relação as garantias da aplicação da equidade nas decisões judiciais.

A Comissão Européia que trata sobre a eficácia da justiça, conduziu um estudo aprofundado sobre esses temas e elaborou um documento que se chama “Carta ética europeia sobre a inteligência artificial nos sistemas judiciários” em dezembro de 2018. Esse é na realidade o primeiro documento produzido nesses parâmetros, pois essa carta prevê princípios básicos e metodologias que deverão ser aplicados para a análise e o tratamento das decisões judiciais, sendo certamente um ponto de referência.

Tal documento se refere tanto sobre o desenvolvimento concreto da aplicação da inteligência artificial como também sobre a elaboração de políticas públicas que prevejam a integração de tais aplicações tecnológicas nos sistemas judiciários.

A Comissão Europeia que trata da eficácia da justiça sempre teve um interesse antigo em estudar os impactos que as novas tecnologias têm sobre os sistemas judiciais europeus, tanto que a referida comissão elaborou um estudo aprofundado sobre o uso dessas tecnologias nos tribunais e sobre a linhas diretrizes da Cyberlaw desde 2016.

Todo esse trabalho originou a referida carta ética, que é o primeiro documento a enunciar os princípios fundamentais que deverão guiar a aplicação da inteligência artificial nos sistemas judiciários europeus e que poderão consequentemente influenciar muitos outros países fora desse circuíto, pois as soluções aplicadas com a inteligência artificial estão em fase de experimentação em muitos países ainda, e mais ainda quando se fundamentam no tratamento das decisões judiciais.

No presente trabalho citaremos um estudo que fala sobre algumas aplicações da inteligência artificial em fase experimentação em alguns países europeus e sobre as recomendações de uso de tais aplicações.

As justiça “preventiva” é uma das aplicações da inteligência artificial que necessita de uma atenção especial e muitos debates vem ocorrendo sobre o tema em vários países, principalmente europeus, com referência ao âmbito de aplicação dessa nova tecnologia e seus efeitos sobre o trabalho dos magistrados.

Essas questões estão interligadas porque uma reflexão sobre o uso destas tecnologias aplicadas na jurisprudência não pode prescindir de uma análise objetiva da sua potencialidade e dos seus limites de funcionamento.

Ou seja, a definição de limites éticos é essecial para garantir que os instrumentos de inteligência artificial, em particular aqueles que se baseiam em decisões judiciais, incluindo aquelas de justiça preventiva, reunam um certo número de critérios substânciais e metodológicos.

Insta salientar que a inteligência artificial é um conjunto de ciências, teorias e técnicas que têm o escopo de permitir que a máquina possa resolver problemas, compreender e interagir com a realidade como faz um ser humano.

Os especialistas distinguem a inteligência artificial como forte, que é aquela que resolve problemas de forma autônoma, ou seja, sem a intervenção humana, e fraca, que é aquela que realiza atividades e presta serviços qualitativamente equivalentes aos seres humanos, mas quantitativamente superior a eles.

A inteligência artificial utilizada para a análise da jurisprudência e sobre a qual se fundamenta a aplicação da justiça preventiva, é considerada fraca, e se baseia em duas técnicas: o tratamento informático da linguagem humana; e a “machine learning” que é uma técnica que permite construir um ou mais modelos matemáticos, identificando as correlações existentes entre uma grande quantidade de dados.

A diferença entre os sistemas modernos e aqueles dos anos 90, é que esse último procurava padronizar as regras de gestão fundamentadas sobre o raciocínio humano para aplicar aos dados, já no novo sistema a máquina procura de modo autônomo, com ou sem a supervisão de um ser humano, as correlações entre as informações, e deduz as regras com base na enorme quantidade de dados fornecidos.

Esse sistema moderno quando aplicado às decisões judiciais, individualiza as correlações entre os diferentes parâmetros de decisões tomadas no passado sobre um certo assunto, como em matéria de divórcio, por exemplo, pode verificar-se a duração do casamento, a renda dos cônjuges, deduzindo um ou mais modelos matemáticos sobre o qual se basear para prever os elementos de uma futura decisão judicial, como o valor da pensão alimentícia, por exemplo.

Para compreender melhor as características da aplicação do aprendizado automático na jurisprudência, citamos um estudo conduzido pela University College of London – UCL que pesquisou 584 decisões tomadas através da “machine learning” , proferidas pela Corte Europeia dos Direitos Humanos.

Esse estudo foi escolhido porque é o único que se ocupou da jurisprudência da Corte de Estrasburgo, e por ser um estudo público e bem fudamentado, os resultados forão incríveis, pois com a utilização das técncas de aprendizagem automática, o robô reproduz as decisões humanas com percentual de sucesso de 79%.

A máquina foi programada com base em diversos elementos que constituíram as sentenças da Corte de Estrasburgo, como a aplicação da Convenção Europeia dos Direitos do Homem e o dispositivo binário sobre se houve ou não violação da referida convenção.

Nesse contexto, as palavras que poderiam indicar uma violação foram ponderadas com base na sua presença predominante nos diversos tipos de decisões examinadas por esse estudo, portanto, os termos: condição de detenção, obrigação do Estado, execução das decisões, pareciam haver maior probabilidade de serem encontrados em uma decisão que se refere a violação dos direitos humanos por um determinado país. Todavia, termos como: falta de provas, direito de propriedade e precedentes de violação dos artigos 2o. e 11o. da Convenção, pareciam haver maior probabilidade de serem encontrados nas decisões de não violação dos direitos humanos. Nesse contexto, o robô procurou simular um raciocínio jurídico apenas fornecendo para processamento estatístico os dados recolhidos, calculando as probabilidades. Essa técnica utilizada é somente uma entre tantas, pois outras soluções estão sendo testadas pelos pesquisadores com o escopo de superar esses limites.

Mas a questão de fundo é se essas novas tecnologias irão padronizar matematicamente a lei e sua aplicação e se esse tipo de técnica pode ilustrar as tendências que aparecerão na jurisprudência, ou mesmo, revelar um certo prejuízo para os juízes, que podem se sentir obrigados, ou mesmo prejudicados com relação a possibilidade de colocar em prática a sua livre convicção, como sustentam alguns artigos sobre justiça preventiva publicados na França.

Bem, para avaliar esses quesitos e a pertinência das soluções propostas é muito útil recordar que as características principais de uma decisão judicial são essencialmente: a seleção por parte do juiz dos fatos que entenda mais relevantes e a interpretação e aplicação das normas jurídicas a tais fatos.

A aplicação do direito aos fatos é complicado porque pode haver uma multidão de fontes que não se integram de modo coerente, característica que o teorico do direito Herbert Hant qualificou de “tecido aberto do direito”.

O silogismo judiciário parece ser mais um modo de apresentar o raciocínio jurídico “a posteriori” que a tradução lógica de todas as fases do raciocínio afetuado pelo juiz. Tal raciocínio pode ser pontuado por uma multidão de escolhas discricionárias que não são reconhecidas “a priori”, como o fato de selecionar ou de considerar somente alguns elementos apresentados pelas partes.

Uma decisão judicial constitui uma matéria-prima bastante imperfeita, para que possa permitir a identificação rigorosa de todos os fatores causais e criar um modelo sobre o raciocínio do juiz, alcançando resultados previsíveis e confiáveis.

Portanto, não se pode afirmar que a “machine learning” consiga explicar o comportamento do juiz, pois se num determinado caso em análise pelo magistrado ele decide que os filhos devem ficar com a mãe, por exemplo, isso não reflete necessariamente um prejuízo em relação ao pai, mas a existência de fatores sociais, econômicos ou culturais específicos da jurisdição onde o magistrado exerce a sua função, como por exemplo, quando existe na região onde as crianças moram bons serviços sociais, ou o fato de a criança ir para escola ou não, ou a falta de interesse da parte de um dos genitores de ficar com o filho pequeno, etc.

Por essas razões podemos afirmar que a inteligênica artificial aplicada nesse sentido não seria satisfatória, e isso acontece, porque a mesma pode funcionar muito bem em relação a um jogo por exemplo, sendo capaz de ganhar do ser humano, mas não é capaz de prever os próximos passos do magistrado em relação as sua decisões.

A matemática ensina que alguns eventos aleatórios podem se modelados, como a chamada “maquina ou tabuleiro di Galton”, onde um grande número de bolas caem verticalmente através de linhas antes de se depositarem no fundo, formando pilhas. Embora as bolas se movam aleatóriamente para direita ou para a esquerda as alturas dessas pilhas assumem a forma de um sino.

No mundo real, que é complexo e contínuo, a lógica matemática representa um limite importante para a inteligência artificial, como mencionamos antes, pois essa última pode tentar identificar regras implícitas, mas não é capaz de isolar significativamente todos os fatores causais, não podendo mudar radicalmente os modelos para os quais foi projetada.

A “machine learning” e a “data science” permitem a realização de prestações de serviços melhores que as feitas pelo seres humanos em certos âmbitos de atuação como no caso de análise quantitativa de dados, mas não fornece uma solução que revele indicadores qualitativos significativos para construir modelos de projeção confiáveis no campo da jurisprudência.

A sociedade e os operadores do direito em geral estão em constante evolução, portanto as decisões judiciais não são como bolas caídas em uma máquina de galton, e o raciocínio jurídico não consiste apenas na distribuição casual de opções binárias.

Portanto, como poderíamos prever quais os fatos que seríam considerados relevantes para o juiz em seu julgamento ? Como ponderar sobre princípios elementares como a equidade, por exemplo?

Nesse contexto, podemos concluir que o estado de desenvolvimento das técnicas de aprendizagem automática atuais não permitem ainda a obtenção de resultados confiáveis no que se refere a previsão de decisões judiciais.

Experimentos conduzidos na França, em escala limitada, em duas Cortes de Apelação, apontou a falta de valor agregado ao trabalho dos juízes, de uma técnica de inteligência artificial preventiva fornecida pelo softwer desenvolvido por uma empresa privada. Todavia, seria um erro não disfrutar da grande potencialidade da inteligência artificial para melhorar a eficácia do trabalho do juiz.

A justiça preventiva representa uma das tantas aplicações da inteligência artificial, mas existem outras muito interessantes, e que estão em fase de experimentação em alguns países, assim como no Brasil, a utilização da inteligência artificial para leitura rápida de peças processuais, a classificação e atribuição de atos, recursos, documentos, etc.

Na Austria é objeto de testes a utilização do chatbot, que nada mais é do que a conversação com um robô com o escopo de orientar o cidadão para uma solução ou resolução alternativa de uma determinada controvérsia, como já vem ocorrendo na Letônia, por exemplo, que é um país que investe pesadamente em novas tecnologias há bastante tempo, assim como a Estônia também. No Brasil esse dispositivo vem sendo utilizado no Tribunal de Justiça de Roraima.

Com relação a aplicação da inteligência artificial nas decisões dos tribunais no que se refere a pesquisas jurídicas doutrinárias e jurisprudenciais, bem sabemos que já existem programas de pesquisa inteligentes que permitem a análise de fontes diversas, tais como: leis, regulamentos, jurisprudência e doutrina. Portanto, a inteligência artificial pode permitir o acesso amplo, diversificado e interativo a uma enorme quantidade de informações, assim os magistrados, advogados, bem como, outros profissionais, poderiam navegar entre essas diversas informações e encontrar de forma mais rápida e eficiente as soluções necessárias.

A inteligência artificial pode ser também utilizada para criar modelos ou minutas de decisões judiciais que estejam de acordo com os resultados da pesquisa feita pelo magistrado, tornando mais rápida a redação do ato por parte do juiz.

Os métodos de cálculo das indenizações em matéria civil, por exemplo, no caso de ressarcimento de danos físicos, poderiam ser melhorados através do acesso a uma ampla gama de decisões, também no sentido de adotar uma série de medidas de precaução.

Todavia, existe um efeito performático ou de autorealização, ou seja, o risco que o sistema produza sistematicamente os mesmos resultados, influenciando os magistrados.

Essa é uma das principais críticas sobre a justiça preventiva, o fato que a prevenção não tenha um valor “indicativo” mas quase que “prescritivo” para o juiz, porque aplicaria a solução proposta pela máquina sem examinar o caso a luz de suas particularidades, alimentando esse sistema, e facilitando a reprodução mecânica das decisões que se antecederam. Todo esse sistema contribuiria para uma cristalização ou padronização da jurisprudência, limitando a evolução do direito.

Todavia, claro que é tentador dispor de mecanismos tecnológicos mais ou menos automatizados de jurisprudência para limitar contenciosos civis repetitivos e de baixo valor. A Grã Bretanha, Países Baixos e a Letônia são exemplos de países que estão utilizando esse tipo de solução.

Insta salientar a importância de utilizar a transparência, a neutralidade e a lealdade em relação aos cidadãos que estejam integrados nos mecanismos de tratamento em questão.

Todavia, em matéria penal existe uma difusão crescente de instrumentos de política preventiva, como a “fly list”, que é um programa que recolhe e analisa os dados de potenciais terroristas com o escopo de previnir o cometimento de atos criminosos, é a chamada cartografia criminal preventiva. Tal programa utiliza a inteligência artificial para identificar se o cometimento de um determinado crime foi por um “serial killer”, por exemplo, e predispor de forma eficiente serviços preventivos de segurança.

O uso da inteligência artificial no processo penal é muito limitado na Europa, mas nos Estados Unidos é bastante utilizado, pois os instrumentos que determinam o risco ou o “risk assessment tools” de uma pessoa cometer um crime, são muito utilizados pelos juízes americanos, todavia esse sistema não é vinculante. Essas probabilidades de nível, alto, médio e baixo são medidas através de informações estatísticas baseadas em diversos fatores de risco, seja em relação a pessoa em questão, ou seja individualizando precedentemente se o indivíduo cometeu um segundo crime ou não.

Contudo a utilização desse intrumento pode gerar efeitos discriminatórios, como apontaram algumas ONGs americanas, pois, pessoas advindas de outros países são sempre consideradas como de alto risco em relação a outras. Portanto, esse tipo de instrumento pode reproduzir ou até mesmo amplificar algum tipo de discrimação existente no sistema penal americano.

Dois aspectos importantes devem ser observados: o primero é a ausência de transparência sobre os algoritimos que são utilizados pelas empresas, claro que os algorítimos são protegidos por segredo industrial, sendo difícil, salvo por autorização judicial, ter acesso. Todavia os atos precisam ser neutros quando o algoritimo provém da autoridade estatal e muito mais quando utilizados no âmbito da atividade judiciária e com incidência significativa sobre os direitos dos cidadãos, portanto o problema de transparência e de “accountability” dos autores privados é um fator fundamental.

O segundo aspecto que deve ser verificado é a necessiade de garantir o respeito ao princípio da paridade entre acusação e defesa. Ou seja, a pessoa que esta sendo julgada com base em dados de um algorítimo deveria ter a possibilidade de examinar e contestar a validade científica e o peso atrabuído a seus diversos componentes.

Enfim, a principal preocupação é quanto ao impacto potencial negativo que estes instrumentos podem ter sobre a imparcialidade do magistrado, porque um juiz que decide contra a previsão de um algorítimo assume um risco, e de consequência, maior responsabilidade.

Em geral esses algoritimos que determinam a periculosidade do indivíduo parecem refletir o debate sobre a presumida previsibilidade do comportamento criminal, que é muito vivo nos EUA, mas que fora resolvido a mais de trinta anos em diversos países europeus, como por exemplo no caso do artigo 220 do Código de Processo Penal italiano, que exclui expressamente a possibilidade de recorrer a perícia, a fim de estabelecer características como a tendência a cometer um crime, o caráter e a personalidade do investigado e em geral a qualidade psicológica do mesmo, independentemente de causas patológicas.

Do mesmo modo na França a doutrina da chamada nova defesa social de Marc Ancel fundou o direito penal “post bellico” onde um objetivo meramente punitivo e determinante foi substituído por um sistema de reabilitação social voltado a previnir o cometimento de crimes.

As técnicas de análise de dados poderiam ser utilizadas por serviços sociais para centralizar e recolher informações sobre o autor de um crime que estariam dispersas em diversas instituições, como informações concernentes a formação, a ocupação, a assistência médico social, etc. Estas informações poderiam ajudar no processo decisional do juiz, que precisa se pronunciar nos autos em tempos muito breves.

Como mencionado anteriormente a CAPEJ adotou a primeira Carta Ética europeia sobre o uso da inteligência artificial nos sistemas judiciários que se destaca particularmente sobre as técnicas de tratamento e análise automatizadas das decisões judicias.

Todavia, trata-se de um instrumento não vinculante mas que tem o mérito de enunciar princípios substanciais e metodológicos aplicáveis, seja aos autores privados, como as start-up ativas no mercado das novas tecnologias aplicadas ao setor jurídico, as “legal techs”, seja as autoridades públicas, essas últimas poderão traçar inspirações desses princípios para definir as políticas a serem utilizadas ou um quadro normativo nessa matéria.

Entre os princípios enunciados, o respeito aos direitos do homem e a não discriminação por parte dos “softwars” de inteligência artificial reveste uma importância fundamental, pois se trata de assegurar desde a fase da concessão até a aplicação prática, que as soluções garantam o respeito dos direitos garantidos pela Convenção Europeia dos Direitos do Homem e da Convenção n. 108 do Conselho da Europa sobre a proteção dos dados pessoais.

São considerados alguns desafios qualitativos sobre a metodologia utilizada para a análise e tratamento automatizado das decisões judiciais, porque a elaboração dos dados, através da “machine learning”, deveria poder ser efetuada sobre a base de certificados originais, e a integridade desses dados deveriam ser garantidos em todas as fases de utilização. Deveria haver também, uma atenção especial na fase de seleção das decisões que serão analisadas pela aprendizagem automática.

Existe a necessidade de dispor de um ambiente tecnológico seguro de archivamento e atualização dos modelos de “machine learning” e de algorítimos. Muito importante também é a utilização de princípios de transparência das metodologias e das técnicas utilizadas no tratamento das decisões judiciais.

É importante considerar a necessidade de tornar acessível e compreenssível as técnicas de tratamento de dados, assim a autorização de auditorias externas por parte de terceiros independentes com o objetivo de individualizar eventuais distorções.

Também é importante reforçar a autonomia dos usuários no uso dos instrumentos e serviços de inteligência artificial, pois o magistrado deveria ter a possilidade de retornar a qualquer fase do processo e aos dados que foram utilizados para produzir o resultado, havendo a possibilidade de discordar, devido a questões específicas, da decisão proferida no caso concreto em análise.

Os desafios criados pela inteligência artificial no setor da justiça poderão ser tratados de maneira eficaz através de uma fusão de ideias, através da criação de equipes pluridisciplinares compostas de magistrados e pesquisadores em informática, tanto na fase de elaboração como de realização ou utilização das soluções propostas.

Em geral, é recomendado uma integração gradual da inteligência artificial com o sistema judiciário, sendo essencial verificar se tais aplicações propostas por empresas privadas tenham a capacidade de contribuir com o usuário efetivamente, na prestação do serviço, ou seja, para a realização dos objetivos do serviço público e da justiça.

O objetivo fundamental desse trabalho é que os princípios delimitados na carta ética europeia possam servir de parâmetro, ou mesmo, possibilitar a criação de modelos que possam ser referências concretas para os magistrados, fazendo fronte aos desafios da integração das novas tecnologias fundadas na inteligência artificial no trabalho cotidiano dos magistrados.

Sobre o plano prático, esses princípios representam uma base de comparação importante para avaliar as características das diferentes aplicações de inteligência artificial no sistema judiciário de primeiro grau ou a nível dos Tribunais.