Resumo
Neste artigo, é apresentada a síntese de análises críticas realizadas em pesquisas coordenadas pela autora e pelo autor sobre a falta de transparência e o problema dos vieses no uso de sistemas de inteligência artificial (IA) como apoio ou para a efetiva tomada de decisão judicial, a partir do contexto brasileiro. Do ponto de vista metodológico, foram desenvolvidas pesquisas bibliográficas, documentais e empíricas nas investigações. Foram feitos exames analítico-interpretativos acerca dos materiais levantados para alicerçar as considerações. Na abordagem, foi elaborada uma breve descrição acerca do estado da arte quanto ao uso de IA pelo Judiciário nacional, seguida pelas análises sobre a opacidade dos algoritmos e os vieses cognitivos, conforme os tópicos relacionados com a incompatibilidade estrutural entre o processamento de dados pela IA e a aplicação do Direito; a incapacidade da IA realizar juízos de valor; a acentuação dos vieses cognitivos pela IA; e a falta de transparência em relação aos algoritmos e aos dados utilizados pela IA. Ao final, são apresentadas propostas para enfrentamento dos problemas com o uso de IA para a tomada de decisão judicial.
Palavras-chave: uso; inteligência artificial; transparência; vieses; decisão judicial
Abstract
This paper presents a synthesis of critical analyses about the lack of transparency and the problem of biases in the use of artificial intelligence (AI) systems as support or for effective judicial decision making from the Brazilian context, based on researches coordinated by the authors. From the methodological point of view, bibliographic, documentary and empirical researches were developed in the investigations. Analytical-interpretative studies of the materials gathered were made in order to ground the considerations. In the approach, a brief description of the state of the art regarding the use of AI by the national judiciary was elaborated, followed by analyzes on the opacity of algorithms and cognitive biases, according to topics related to the structural incompatibility between data processing by AI and the application of Law; the inability of the AI to make value judgments; the accentuation of cognitive biases by AI; and lack of transparency in relation to the algorithms and data used by the AI. At the end, proposals are presented to face the problems related to the use of AI for judicial decision making.
Keywords: use; artificial intelligence; transparency; bias; judicial decision
1. INTRODUÇÃO
Neste artigo, são expostos resultados alcançados a partir das investigações em desenvolvimento no Grupo de Pesquisa Inteligência Artificial aplicada ao Direito - liderado pela autora, na Universidade Federal de Juiz de Fora - e do Projeto de Pesquisa Esperança Garcia, coordenado pelo autor na Universidade Federal Rural do Semiárido.
As tecnologias da informação (TI) permeiam a realidade, gerando impactos constantes. No direito, a utilização de IA é considerada inevitável1, pois entendida como decorrência das transformações da “sociedade em rede”2 e da chamada “quarta revolução industrial”3.
Diversos fatores socioeconômicos, institucionais e de avanços nas TI contribuíram para a emergência do fenômeno em análise. O processo de informatização do Judiciário no Brasil foi fundamental, pois propiciou a formação de grandes bancos de dados (big data) - condição para o desenvolvimento das IA, baseadas na aprendizagem de máquina (AM).
O uso de IA na produção das decisões judiciais, como ferramenta auxiliar ou como produtora direta da decisão, ocorre no Poder Judiciário em vários países atualmente4. No Brasil, em 2021, segundo o painel Projetos com Inteligência Artificial no Poder Judiciário, do Conselho Nacional de Justiça (CNJ), foi observado que havia 41 projetos em 32 tribunais5.
Entretanto, ainda em 2021, percebeu-se inexatidão nos números sobre a utilização de IA no Judiciário brasileiro e imprecisão na distinção entre programas de IA e de automação. Segundo relatório elaborado pelo Centro de Inovação, Administração e Pesquisa da Fundação Getúlio Vargas (FGV), foram inicialmente identificados 72 projetos de IA nos tribunais brasileiros. Contudo, a própria FGV retificou esse número para 64 projetos em 47 Tribunais, exatamente em virtude da reavaliação de algumas ferramentas como automação e não como IA6. Na 2ª edição do relatório da FGV, foi registrada a mesma quantidade de projetos e de Tribunais, acrescentando-se que 59 programas de IA e/ou automação já foram implantados7.
No cenário brasileiro, as informações sobre o uso concreto dos programas de IA e/ou de automação na tomada de decisão judicial são escassas, confusas e, por vezes, contraditórias. Geralmente, são encontradas nos sítios oficiais dos Tribunais, enquanto as respostas oficiais em face de solicitações formais por pesquisadores do tema no âmbito acadêmico mostram-se lacônicas ou ambíguas.
Nesse sentido, dois problemas se destacam: a (falta de) transparência nos sistemas de IA e os vieses cognitivos replicados na decisão judicial com uso de IA. Tais problemas suscitam especialmente quatro abordagens: (a) a incompatibilidade estrutural entre a forma de processamento de dados pela IA e a forma de aplicação do Direito; (b) a incapacidade da IA de realizar juízos de valor e sua consequente reprodução dos juízos de valor de seus desenvolvedores; (c) acentuação pelos programas de IA dos vieses cognitivos envolvidos na decisão; (d) a opacidade dos algoritmos e dados da IA.
Não obstante, o uso de IA na produção das decisões judiciais exige a observância dos parâmetros constitucionais que regem a atividade jurisdicional, notadamente os direitos humanos, os direitos fundamentais e o Estado Democrático de Direito. A posição, inclusive, está proposta no Projeto de Lei nº 2.338, atualmente em tramitação no Senado Federal, que visa disciplinar o uso de IA no país8.
Para a investigação dos problemas acima citados, realizaram-se pesquisas bibliográfica, documental e empírica, com levantamentos de textos científicos, de websites dos tribunais pátrios, textos normativos e documentos com informações oficiais sobre os fenômenos. Foram utilizados como referenciais teóricos o pensamento de Robert Alexy, Francisco Varela e Cathy O’Neil.9
A análise crítica das duas centrais questões mencionadas - falta de transparência nos sistemas de IA e vieses cognitivos na decisão judicial com uso de IA - é desenvolvida neste artigo em três etapas centrais: (i) o exame dos programas utilizados pelos tribunais brasileiros e sua classificação como sistemas de automação ou de IA; (ii) a avaliação crítica do uso de IA na tomada de decisão judicial, em face da opacidade dos algoritmos e dos vieses que as respostas da IA podem apresentar; (iii) a apresentação de propostas como contribuição para solução daqueles problemas.
2. USO DE IA PELO PODER JUDICIÁRIO BRASILEIRO
A informatização do Poder Judiciário iniciou-se nos anos 50 nos EUA e em alguns países da Europa, e no final dos anos 60, no Brasil.10 Já o uso de IA no Judiciário brasileiro para auxiliar na decisão judicial tem antecedentes históricos nos anos 70 do século passado. Em 1971, existe registro do uso direto de computador para resgatar textos decisórios sobre questões de acidentes de trabalho e de problemas de saúde ocupacional (chamado de “sistema PRAT” - Processos de Acidentes do Trabalho), que foi descrito como “um relacionamento da máquina com o processo decisório”, ainda que restrito à tarefa auxiliar ou de suporte à decisão, comparada ao serviço de “um secretário ao qual o juiz ditasse a sua decisão”11.
Ainda naquela época, foram produzidas análises e obras acadêmicas sobre a informática jurídica e/ou juscibernética, nas quais houve problematização do uso das ferramentas na decisão12. Porém, o que se mostra atual é a quantidade de softwares e o nível de sofisticação dos equipamentos e dos programas, de acordo com os avanços tecnológicos das últimas décadas, deste século. Contemporaneamente, há diversas IA implantadas e em desenvolvimento para realizar algumas tarefas relacionadas com o auxílio às decisões ou com a própria tomada de decisões judiciais, bem como para a gestão do processo judicial.13
Os diversos programas de informática foram desenvolvidos e implementados com várias funcionalidades específicas, que se referem a etapas diferentes do processo judicial - desde a simples leitura da petição (porta de entrada para o sistema judicial), passando pela classificação, extração de dados, agrupamento de casos, outros atos processuais e a decisão final do(s) caso(s), até deliberações sobre atos de execução da decisão judicial. Destarte, os programas de automação e de IA podem gerar possibilidades de implicações diversificadas nas tomadas de decisões judiciais, em relação a momentos distintos do processo judicial.
Por conseguinte, muitos dos softwares utilizados no processo judicial brasileiro se inserem na estrutura da tomada de decisão, na medida em que realizam operações que selecionam as informações, fornecendo-lhes sentido de acordo com cada uma das funcionalidades em que trabalham. Os programas de automação e/ou de IA elegem e confeccionam os atos processuais que são suas finalidades, seus propósitos.
Em face do cenário descrito, o CNJ buscou centralizar todas as iniciativas implantadas e em desenvolvimento nas várias unidades da organização institucional. É relatado que o programa “Justiça 4.0”, lançado em 2021, congrega essa proposta de centralização, na medida em que reúne múltiplas plataformas e outros programas: Juízo 100% digital; Balcão Virtual; Plataforma Digital do Poder Judiciário (PDPJ); “o auxílio aos tribunais nos registros processuais primários; a consolidação, implantação, tutoria, treinamento, higienização e publicização da Base de Dados Processuais do Poder Judiciário (DataJud)”; Codex; difusão da Plataforma Sinapses14; tudo destinado àquela finalidade de centralização, com a ideia de unificação ou, pelo menos, de propiciar a comunicação e compartilhamento.
Nesse quadro, observa-se que a tendência é de que se consolide a realidade de digitalização e virtualização de todas as rotinas, sub-rotinas, atos e tomadas de decisões acerca do processo judicial, que já tenham sido objeto de automação ou IA, conforme toda aquela profusão de programas criados, desenvolvidos, em desenvolvimento e implantados ou em implantação. Afinal, as unidades do Judiciário, por meio daquelas plataformas e programas do CNJ, podem acessar e implantar todos os programas de automação e IA que já estejam em operação15. Provavelmente, as atividades do programa “Justiça 4.0” também poderão criar as condições para a comunicação entre as instâncias do judiciário, de modo que possa ocorrer uma extensa padronização das decisões.
Em virtude dos possíveis impactos em valores relacionados aos direitos fundamentais e ao regime democrático, as respostas dadas pelas máquinas a várias das tarefas a elas atribuídas no processo judicial deveriam se submeter à revisão humana. Entretanto, a pesquisa desenvolvida pela FGV exposta na 2ª edição de seu relatório, aferiu que apenas em “pouco mais da metade das iniciativas (54%)” já implantadas, as respostas da máquina são submetidas a “algum tipo de validação humana”, sem maiores detalhes de como são os procedimentos16.
Pondera-se, ainda, que a condição de os seres humanos figurarem como “supervisores” ou “validadores” das decisões, atos processuais e seus respectivos textos produzidos pelas máquinas pode significar um deslocamento ou até substituição, em que, talvez, a atividade humana se torne secundária na tomada de decisão judicial. É que a função humana desempenhada pode se resumir em apenas “clicar” para “validar” a decisão da máquina e “autorizar” a inserção das respostas no processo judicial. Ou seja, a rapidez da máquina em oferecer as respostas, a ideia de que as soluções da máquina possuem elevada acurácia e a capacidade de fazê-lo para uma quantidade grande de processos judiciais ao mesmo tempo indicam a possibilidade de que a validação seja só um “click”, pois os seres humanos operam com os vieses da confiança, confirmação, facilidade, conveniência, comodidade, dentre outros17. A organização institucional e as pressões do sistema judicial por metas, celeridade e eficiência concorrem para que o trabalho já realizado pela máquina não seja revisto ou refeito, mas apenas encaminhado para finalizar o processo judicial.
Quanto à revisão humana de decisões, no PL nº 2.338/2023, determina-se que é direito da pessoa que tiver seus interesses impactados de maneira significativa por decisão tomada por IA (art. 10), devendo o Poder Público que contratar, desenvolver ou utilizar sistemas de IA adotar medidas que garantam tal direito (art. 21, inc. IV)18.
Apesar das informações até então oferecidas, no levantamento de dados relativos à realidade nacional (descrita pelo CNJ e nos relatórios da FGV19), verificou-se a ocorrência, também no contexto brasileiro, de falta de transparência acerca do uso dos sistemas de IA na tomada de decisão judicial e da falta de abertura para a revisão de eventuais problemas decorrentes dos vieses cognitivos na decisão judicial com uso de IA.
A falta de transparência no Judiciário nacional é marcada pela dificuldade de acesso às informações relativas ao uso de IA. Os websites oficiais e os boletins dos tribunais informam apenas de forma esparsa se alguma IA está em uso nas decisões judiciais ou se está em instalação20. Na busca por mais informações, foi enviada mensagem eletrônica ao setor de atendimento do STF e do Tribunal de Justiça de Minas Gerais (TJMG) para obter resposta quanto à implantação da IA ou à sua utilização em decisões definitivas21.
A falta de transparência em relação à utilização de IA pelo Judiciário brasileiro é evidenciada pelo citado Painel de Projetos de Inteligência Artificial do CNJ22. A dificuldade de acesso a informações a respeito fica notória, por exemplo, já pelo fato de apenas 22% dos tribunais disponibilizarem publicamente os algoritmos dos programas, o que possibilita a auditabilidade de apenas menos de um quarto da IA atualmente em uso pelo Judiciário pátrio. A situação é ainda mais grave quando tais programas são desenvolvidos por empresas privadas, que detêm a propriedade intelectual e o sigilo comercial em virtude do direito de patente - realidade de quase um terço dos programas adotados pelos Tribunais investigados pelo CNJ.
Por sua vez, quanto aos vieses algorítmicos, as chances de potencialização, em caso de sua ocorrência, são elevadas, pois apenas 4% dos dados inseridos nos programas de IA em uso pelo Poder Judiciário são publicamente disponíveis e podem ser revisados23. Acontece que as maiores chances de desvios cognitivos estão na seleção dos dados a serem processados pela IA, pois tais dados são escolhidos a partir da valoração atribuída a características que os singularizaram, eliminando-se outras possibilidades, portanto.
Deve-se destacar que transparência, auditabilidade, e rastreabilidade são propostas no PL nº 2.338 como princípios do desenvolvimento, implementação e uso da IA no país (art. 3º, inc. VI, IX), enquanto a publicidade encontra-se estipulada como dever do Poder Público ao contratar, desenvolver ou utilizar sistemas de IA na administração da justiça (art. 17, inc. VII; art. 21, inc. VI). Aliás, é relevante mencionar o caráter altamente protetivo aos indivíduos e à democracia do PL nº 2.338, que coloca, já em seu art. 1º, a proteção dos direitos fundamentais como o primeiro objetivo do desenvolvimento e uso de IA no Brasil e determina como seus fundamentos iniciais a centralidade da pessoa humana, o respeito aos direitos humanos e aos valores democráticos (art. 2º, inc. I e II)24.
Sem embargo, na 3ª edição do relatório da pesquisa FGV antes referida, foi assinalado que o programa “Justiça 4.0” também cumpriria o papel de oferecer transparência e auditabilidade às ferramentas de IA e automação do Judiciário brasileiro. No entanto, resta evidente o contraste entre, de um lado, as diretrizes daquele programa e da Resolução nº 332/2020 do CNJ, e, de outro, os dados e as informações colhidos nas visitas técnicas realizadas nos Tribunais selecionados (amostragem)25. Verificou-se pela pesquisa citada que, em geral, há problemas de falta de transparência e de auditabilidade quanto ao uso das ferramentas tecnológicas investigadas na pesquisa citada26.
Outrossim, em relação à rastreabilidade, expressa pelas referências à “explicação satisfatória” e à “auditoria por autoridade humana” das decisões oferecidas pela máquina, observou-se que as ferramentas pesquisadas pelo grupo da FGV “revelam carência de informações [...] para o público externo ao tribunal quanto a qualquer proposta de decisão apresentada pelo modelo de Inteligência Artificial, especialmente quando essa for de natureza judicial”. Não há possibilidade alguma de o jurisdicionado ter conhecimento dos critérios e parâmetros utilizados na resposta dada pela máquina27.
Em que pese as situações descritas até então, a pesquisa sobre o estado da arte do uso de IA pelos Tribunais brasileiros encontra-se sintetizada nos quadros seguintes, discriminando-se as atividades realizadas pelos programas de informática do STF, do Superior Tribunal de Justiça (STJ) e de todos os Tribunais de Justiça (TJ) do país. Especial destaque é dado ao programa Victor no STF, por ser essa uma das IA mais avançadas no Poder Judiciário brasileiro e estar em uso na Corte máxima do país, cujas decisões geram o maior impacto social na realidade nacional.
A finalidade do Victor no STF é o auxílio na decisão acerca da repercussão geral (RG) nos processos29. Para tanto, demandam-se vários procedimentos - como ocerização de documentos e determinação de temas de RG - que exigem algoritmo com nível próprio de IA. Examinam-se 5 peças dos autos - acórdão recorrido, juízo de admissibilidade do recurso extraordinário (RE), petição do RE, sentença e agravo no RE - segundo 27 temas de RG30.
Como exposto, buscou-se, junto ao canal de acesso à informação do STF (em agosto de 2021), esclarecimento acerca da instalação e execução do programa Victor31. Do retorno, extrai-se que (i) o projeto iniciou-se no final de 2017; (ii) implementaram-se as fases de leitura, tratamento e extração de dados dos textos dos arquivos dos processos (ocerização); (iii) o módulo de classificação de peças está em implantação; (iv) a realização de testes de inferência dos temas de RG está em andamento, “havendo a expectativa de que ainda em 2021 os resultados sejam apresentados”. As informações não deixam nítido sobre se (e como) está em uso o Victor nos processos concretos, e são insuficientes quanto aos aspectos técnicos da IA.
Entretanto, não se identificou - nem em dezembro de 2021, nem nos meses seguintes em 2022 - qualquer alteração no site do STF no que tange às informações relativas à utilização e aos resultados do Victor. Isto é, a não divulgação desses dados impede o acesso ao conhecimento sobre a principal IA relacionada ao Poder Judiciário brasileiro. Porém, em recentes notícias veiculadas no sítio oficial do STF na internet, a informação foi de que a IA Victor estaria em uso desde 201732. Independentemente de quando entrou em operação, o fato é que as pessoas não tomam ciência de que seu caso foi julgado pela máquina ou com apoio nela, visto não haver informação a respeito no processo33.
Em outra oportunidade, foram solicitadas informações técnicas ao setor de TI do STF sobre o Victor. No quadro 2, discriminam-se as perguntas e respectivas respostas34.
Das respostas, formulam-se algumas observações: (i) a justificativa para negar acesso público ao código-fonte da IA Victor é a segurança do sistema e dos dados; (ii) ao que tudo indica, não se seguiram padrões metodológicos e estatísticos para a aprendizagem e testes; e (iii) há algumas divergências entre as informações prestadas e as descrições do Victor pelas coordenações acadêmicas do projeto - por exemplo, os percentuais de treino e de teste (80% e 20%) destoam dos valores informados nos artigos e livros (70% de treino; 20% de testes; e 10% de validação), e a técnica de árvore de decisão parece não se coadunar com a descrição de uso de redes neurais convolucionais36 ou de deep learning37, descritas para o Victor na produção acadêmica.
Interpretou-se que os documentos e a bibliografia consultada não trazem elementos descritivos precisos sobre os parâmetros do algoritmo do Victor, pois se referem, em geral, às propostas para o modelo, testes realizados e à defesa de que se trata de ferramenta que incrementa a eficiência nos procedimentos de análises e decisões sobre a RG nos processos de RE. Ao mesmo tempo, as informações parecem indicar que o escopo institucional para o Victor é operar na redução do quantitativo de processos38.
Os quadros 3 e 4 referem-se aos TJ, fazendo-se uma proposta para a separação respectivamente dos programas de IA daqueles de automação. A distinção reside em que os algoritmos de automação são criados para o processamento de dados com base em regras voltadas para a resolução de um problema ou realização de uma tarefa mecânica ou repetitiva, sem que haja aprendizagem, trabalhando-se sempre com as mesmas entradas, das quais permanentemente resultam as mesmas saídas. Por sua vez, a IA baseada em AM apresenta algoritmos que, mediante o treinamento com o banco de dados (aprendizagem), podem oferecer soluções diversas para entradas semelhantes, a partir dos padrões encontrados no banco de dados. Assim, todas as IA “são automações, mas nem todas as automações são sistemas inteligentes”39.
Verificou-se que, dos 25 programas levantados nos TJ, a maioria das funções é desempenhada por ferramentas de automação. Identificou-se que alguns programas são utilizados em mais de um TJ (como o programa Leia Peticionamento) e que TJ diferentes atribuem nomes distintos a programas que realizam basicamente a mesma função - como os programas Hércules (TJAL), Elis (TJPE), Classificador de Petição de Execução Fiscal (TJSC).
É interessante perceber que a análise e interpretação de programas como IA ou como automação não é pacífica, havendo discrepâncias e indistinções, seja na doutrina seja pelos agentes do Judiciário que lidam com os projetos de elaboração e execução dos programas de informática42. Em verdade, a confusão e indiferenciação entre IA e automação está declarada em texto normativo infralegal do CNJ - artigo 2º, parágrafo único, da Resolução n. 271/2020.
No âmbito do STF, do STJ e da justiça comum da região sul do judiciário nacional, Tiago Bruno Bruch mapeou que utilizam ferramentas de IA e/ou de automação para “elaboração e catalogação das decisões judiciais (despachos, sentenças e acórdãos)”43 - pressupõe-se que a tarefa de “elaboração” envolve tanto a tomada de decisão como a confecção da minuta do texto do ato decisório. Segue um quadro ilustrativo:
Em suma, considerando o estado da arte com relação aos programas de IA e/ou automação no Judiciário brasileiro, bem como as informações ainda que esparsas e com certa ambiguidade sobre o uso das ferramentas na tomada de decisão judicial, ao que tudo indica, a prática de delegar a atividade decisória às máquinas no Judiciário nacional45 já pode se encontrar em franca realização, sem que as partes e seus advogados ou advogadas sejam cientificadas a respeito, pois os textos das decisões judiciais recebem apenas a assinatura eletrônica do magistrado ou magistrada responsável, desprovida da informação de que houve apoio da máquina para a escolha de solução efetuada e para o respectivo texto apresentado46.
3. USO DE IA NA TOMADA DE DECISÃO JUDICIAL - OPACIDADE DOS ALGORITMOS E DOS VIESES COGNITIVOS
A utilização de IA como ferramenta auxiliar ou como produtora direta da decisão judicial levanta distintos questionamentos e apresenta diferentes problemas, dentre os quais destacam-se a falta de clareza em relação aos algoritmos instalados nas máquinas e os consequentes vieses algorítmicos. Discutem-se abaixo questões relevantes envolvidas com a opacidade e os vieses algorítmicos.
3.1. Processamento de dados pela IA e Aplicação do Direito: incompatibilidade estrutural
Entre as lógicas da IA e do Direito há não apenas diferenças, mas oposição geradora de incompatibilidade estrutural. As IA (baseadas em dados) operam com generalizações, agrupamentos de dados, segundo sua parametrização, enquadrando cada dado singular em grupos ou modelos predeterminados segundo a fórmula do programada no sistema (padronização). Esses conceitos são precisamente opostos aos de individualização e singularidade com que trabalha o Direito no momento da aplicação da norma jurídica na decisão judicial.
Na decisão judicial, a norma jurídica geral e abstrata é tornada individual, do caso concreto, cujas condições particulares conferem singularidade à situação sub judice e ao sujeito. Logo, o uso de IA na decisão judicial pretere exatamente as condições fáticas e jurídicas singulares do caso concreto, que individualizam a situação em juízo. No entanto, as noções de singularidade do caso concreto possuem essencial relevância para o Direito, apresentando-se como princípios jurídicos, como a individualização da pena e a responsabilidade pessoal, no direito penal, e a máxima da proporcionalidade como instrumento para solução de antinomias principiológicas.
No que tange à individualização do caso concreto em julgamento, à consideração de suas particularidades, e das singularidades dos indivíduos nela envolvidos, deve-se destacar que no PL nº 2.33847 chega-se ao ponto de disciplinar, como se fosse real, situação faticamente inexistente, em virtude da impossibilidade de sua ocorrência: em seu art. 9º, § 2º, inc. III, há a determinação de que a pessoa afetada por sistema de IA terá o direito de contestar e de solicitar a revisão de decisões que impactem de maneira significativa seus interesses, se essas decisões se ampararem em inferências que “não considerem de forma adequada a individualidade e as características pessoais dos indivíduos”. Ora, como exposto, a consideração de tal individualidade e de características pessoais é atividade simplesmente impossível a programas de IA - pelo menos, tal como se estrutura hoje seu processamento de dados.
Magalhães aduz que o conhecimento jurídico opera como obstáculo à implementação de IA ao Direito, visto que impõe limitações às simplificações que são exigidas pelos modelos e linguagens da IA para representação do conhecimento48. São limites:
-
De ordem subjetiva, em razão das ideologias, valores e interesses que estão presentes nas formulações do dever ser: (i) relativos ao conhecimento implícito ou tácito, que pode ser descrito pela cultura e pelo senso comum dos juristas, ou pela perícia adquirida nas experiências, presentes nas suas mentes e não nos códigos, jurisprudência e/ou livros; (ii) interpretativos, que envolvem aspectos pessoais, sociais e culturais acerca da realidade, geradores de pré-compreensões e representações conceituais inalcançáveis pela IA, bem como questões acerca de métodos de interpretação; (iii) relacionados com a incerteza e textura aberta da linguagem jurídica, abrangendo impossibilidades de tratabilidade computacional e de formalização da linguagem jurídica;
-
Lógicos, referem-se à incapacidade de os modelos lógico-matemáticos abarcarem, na automatização do raciocínio jurídico, a possibilidade de simular ou reproduzir a complexidade de inferências analógicas que se perfazem no raciocínio jurídico;
-
Jusfilosóficos, relativos às questões éticas e de responsabilidade da IA quanto à tomada de decisão.
A par das limitações, é preciso saber a base de conhecimento (BC) jurídico utilizada para a representação na linguagem algorítmica, a fim de avaliar se ocorreu uma simplificação válida e aceitável, ou se houve uma redução que não se afigura adequada. As informações colhidas acerca das IA em desenvolvimento e/ou operação no Judiciário brasileiro não permitem essa aferição.
A respeito da representação do conhecimento nas IA, não é possível saber com precisão quais foram os dados tomados como substitutivos de valores e crenças sobre um determinado instituto jurídico. Por exemplo, no caso do Victor, aparentemente as classificações daquelas cinco peças jurídicas do RE e dos temas nelas encartados podem ter sido os dados substitutivos escolhidos para operar como representação do conhecimento49, com o objetivo de serem informados para consulta à BC sobre a RG representada no algoritmo da IA - porém, essa BC não é descrita.
Os problemas do uso de IA para a decisão judicial começam na estrutura da própria ontologia50 de representação do conhecimento e da incompatibilidade entre as linguagens da IA e do Direito. Atualmente, as dificuldades aludidas mostram-se insuperáveis, pois não é possível expressar as atividades mentais por meio de representações com regras e símbolos51.
3.2. A incapacidade da IA de realizar juízos de valor
A tomada de decisão judicial implica não apenas o conhecimento de dados, mas julgamentos, com elaboração de juízos de valor sobre atos, fatos, interesses que compõem a realidade. A valoração de algo como bom (juízo de valor) ou como devido/correto (juízo de dever) deve ser atividade exclusivamente humana, pois a determinação da vida cabe ao próprio indivíduo e à sociedade na qual se insere, sob pena de alienação de sua capacidade de autodeterminação, de liberdade. A delegação à IA dessa competência decisória pode significar alienação da liberdade, que, como direito fundamental, é inalienável52.
Não obstante, a IA não consegue (hoje) realizar juízos de valor - pode reproduzi-los, caso inseridos subliminarmente no seu código, mas não os elabora autonomamente. O algoritmo é programado para identificar os dados e suas características para então classificá-los conforme seu código matemático, “rotulando” tais dados, “encaixotando-os” nas alternativas de modelos prefixados como resultados possíveis. Essa atividade não se confunde com juízo de valor, mas tem forma análoga a um juízo de fato, o qual é fundado exatamente na cognição da realidade53. Diversamente, juízos de valor não tratam do conhecimento da realidade, mas de seu direcionamento segundo os valores do Bem (Moral) e da Correção (Direito)54.
Os algoritmos, que são base para toda a aprendizagem da IA, ou as regras de automação de algum programa para lidar com os atos processuais, são limitados à dimensão linguística do Direito, sem possibilidade alguma de apreensão e processamento sobre os acontecimentos reais acerca da relação sociojurídica desenvolvida antes, durante e depois do processo judicial. Isto é, estruturalmente não oferecem elementos que possam processar e lidar com aspectos interacionais ou comunicativos das relações sociojurídicas, nas dimensões concretas da vida. Dessa forma, aquele problema e dificuldade estrutural descrito antes, geralmente indicado como uma vantagem para o julgamento por meio da IA, pode também oferecer desvantagem para o uso da ferramenta na decisão judicial, pois as informações acerca dos desequilíbrios, assimetrias, explorações, opressões, exclusões e demais aspectos das desigualdades na relação jurídico-processual não serão processadas pela máquina, logo, não poderão ser tratadas e reguladas pelo Direito no caso concreto decidido por meio da IA, no sentido de desfazê-las material e formalmente.
Com efeito, a decisão por humanos envolve um nível de processamento e escolhas integradas com o ambiente, que “não podem ser isolados sem que eles percam muitas das suas funcionalidades”, bem como não se reduz à “lógica binária usada por computadores digitais”. A computabilidade da máquina para simular a decisão humana “é, portanto, uma construção alfanumérica”, na qual não é possível alcançar as formas analógicas de processamento por sistemas biológicos - os quais encerram “bilhões ou mesmo trilhões de parâmetros, que definem o estado atual do cérebro”, não tratáveis nem sequer apreensíveis pelo sistema formal e simbólico dos algoritmos55.
Destarte, o algoritmo não tem a habilidade de avaliar um dado como bom ou mau, justo ou injusto. Seu código simplesmente reproduz a avaliação feita pelo desenvolvedor ao associar determinado dado com certo modelo de resultado entendido (pelo desenvolvedor) como bom, positivo, correto.
3.3. Acentuação pelos programas de IA dos vieses cognitivos
A análise dos vieses cognitivos que se transmudam em vieses algorítmicos exige uma abordagem pluridisciplinar, envolvendo conhecimentos de neurociências, IA, linguística, epistemologia e psicologia cognitiva, pelo menos56.
Na decisão, ilusões cognitivas ou de pensamentos podem ser determinantes, destacando-se as heurísticas e os vieses cognitivos57. As heurísticas podem ser crenças, emoções ou outras funções que operam na tomada de decisão, de modo intuitivo. São espécies de atalhos para as decisões, em que, por exemplo, a zona de conforto ou o status quo é a escolha mais fácil, vez que promove a substituição das análises mais reflexivas, aprofundadas e com base nas estatísticas (por isso, trabalhosas e onerosas), pelas crenças, estereótipos, e/ou repertório já constituído - gerando, assim, os vieses58. Vieses são formas nas quais as heurísticas aparecem nos julgamentos59.
No caso do Judiciário, o big data formado pelos arquivos digitais de decisões anteriores (histórico), representativas de toda cultura judicial, é permeado pelos vieses cognitivos existentes e tendencialmente naturalizados pela cultura de cada sociedade. Uma vez consignados nos textos repetidamente, vão se transmutar em dados para a aprendizagem da máquina. Serão assimilados enquanto padrões e, de sua reiterada reprodução decorrem tanto a ampliação do viés cognitivo, quanto a redução das possibilidades interpretativas e inviabilização de sua modificação60.
Assim, o modo de produção das decisões judiciais, na plataforma do processo no sistema judicial, induz à consolidação de vieses cognitivos para a decisão judicial, pois a estrutura opera com bloqueios para processos cognitivos de reflexão a respeito dos próprios vieses - um círculo vicioso fechado61. Todos os preconceitos, discriminações, injustiças, e “erros” de interpretações, que se estabelecem em função das estruturas racistas, machistas, LGBTfóbicas, de poder, de (falsas) hierarquias, da insensibilidade e indiferença sociais, das desigualdades socioeconômicas etc. - vieses cognitivos humanos, enfim -, são replicados e mantidos, porque reconhecidos enquanto padrões pela IA para a tomada de decisão.
Um exemplo concreto se deu no Judiciário estadunidense, com o uso da IA COMPAS para análise de risco de reincidência e atribuição de pontuação para apoiar as decisões judiciais sobre livramento condicional e outros benefícios da execução penal - foi identificado um viés racista, pois pessoas negras receberam pontuações de risco alto por causa do bairro que moravam (de população com menor poder econômico, majoritariamente negra) ou outros fatores implícitos, enquanto pessoas brancas, que mereceriam maior pontuação de risco de reincidência, obtiveram pontuação mais baixa62.
Todos aqueles procedimentos são padrões decisórios humanos, que podem ser transpostos para as máquinas. Por conseguinte, os vieses cognitivos envolvidos na tomada de decisão com auxílio de (ou exclusivamente por) IA, chamados vieses algorítmicos, recebem denominação imprecisa ou inexata, pois o desvio no processo de conhecimento não se origina no algoritmo, mas no seu desenvolvedor. A transposição dos vieses cognitivos humanos para a máquina, com sua assimilação ou incorporação pela IA, ocorre em razão das formatações, configurações e comandos (parametrizações) da programação de aprendizagem e execução da IA63, e pela própria seleção dos dados a serem utilizados na aprendizagem.
Porquanto a IA reproduz juízos de valor dos seus desenvolvedores, qualquer resultado enviesado apresentado não é inerente aos programas nem é por eles gerado, mas decorre dos dados inseridos, do seu cruzamento e combinação, dos pesos a eles atribuídos, das relações de implicação e inferência entre eles estabelecidas, no algoritmo e na arquitetura do sistema.
Em síntese, nesse processo de reprodução automática, de modo sistemático, do que já está estabelecido, a única atividade exclusivamente realizada pela IA é o reforço e a potencialização dos vieses humanos, a ampliação exponencial dos preconceitos sociais, ante a notória superioridade da velocidade de processamento de dados da IA.
Entretanto, quando sistemas de IA com vieses algorítmicos são utilizados pelo Poder Público, àquela potencialização e reforço dos preconceitos humanos soma-se a institucionalização desses preconceitos, a oficialização do tratamento discriminatório, enfim, a legalização do ilegal64.
Assim, como consequência do uso de IA em decisões judiciais, deve-se ainda destacar que da reprodução do que já está estabelecido, advém a manutenção do status quo, com a perpetuação dos valores e parâmetros do passado para a condução das demandas do presente.
3.4. A opacidade em relação aos algoritmos e aos dados utilizados pela IA
A introdução dos programas de IA e/ou automação “dá origem a novas formas de lidar com os dados e produzir informações no circuito da comunicação” do Judiciário brasileiro. Diferentemente da tomada de decisão por humanos, a máquina não lê textos em busca dos significados, uma vez que os computa independentemente da compreensão do seu sentido, de maneira que produz informação distintamente, na medida em que as seleções são orientadas e realizadas por outros critérios - estabelecidos pela estrutura do algoritmo65.
Diversamente dos demais sistemas de IA que operam na web, os programas do Judiciário brasileiro não contam com as alternativas do big data da internet, que dispõe de outras interpretações sobre os temas e situações jurídicas dos casos avaliados, tanto práticas (outros Tribunais ou outras esferas de tratamento das matérias) como teóricas (repositórios das academias, por exemplo). Muito provavelmente, as IA e/ou automações no Judiciário do Brasil podem funcionar ou trabalhar numa “bolha”, como “câmara de eco” do próprio Judiciário. A situação de “bolha” pode representar uma dimensão da opacidade, porque a IA vai realizar uma seleção pré-ordenada das informações (com base no passado “aprendido”), em que as informações foram transformadas em dados e a operação seletiva é efetuada mediante computação, cálculos, inferências, acerca dos padrões e correlações dos dados, por meio das linguagens de programação, sem que se tenha o tipo de compreensão sobre os significados e os potenciais de sentidos das informações, própria do raciocínio humano66.
A transparência algorítmica exige desde o acesso ao código-fonte até o dever de informação de que a IA foi usada para apoio à decisão judicial, ou mesmo a efetuou, com explicação em linguagem natural e inteligível dos parâmetros da IA para o processamento de informações, sua funcionalidade e finalidade, os dados utilizados e o próprio modo de decisão67.
Outros aspectos da transparência são a necessidade de amplo debate público sobre a utilização da IA para a decisão judicial, seus parâmetros68 e a realização contínua e permanente de auditorias sobre a IA69. Entretanto, no mercado das IA, prevalecem os modelos opacos - “caixas pretas inescrutáveis” -, de forma que os modelos transparentes são raras exceções70. No âmbito do Poder Judiciário, não se conhecem (i) os dados fornecidos à IA, (ii) o código da IA utilizada na decisão judicial, e (iii) como são organizados os dados destinados à máquina, então se desconhecem as informações envolvidas no processo judicial, o que afeta diretamente tanto a ampla defesa71 quanto o contraditório, pois as partes não sabem do que se defender, nem o que contraditar72. A falta de transparência no uso de IA pelo Judiciário configura evidente afronta ao princípio da publicidade, orientador do Estado Democrático de Direito.
3.5. Propostas para o uso da IA na decisão judicial
As situações antes problematizadas merecem enfrentamentos mais dedicados para que o uso de IA na decisão judicial seja criticamente avaliado, em virtude dos riscos concretos de violações a direitos humanos, direitos fundamentais e a valores e princípios regentes do Estado Democrático de Direito.
Dado que a regulação por meio da Resolução nº 332/2020 do CNJ não se encontra satisfatoriamente cumprida73, uma providência imediata é a regulamentação da IA, estabelecendo-se princípios que orientem seu desenvolvimento e utilização conforme parâmetros de transparência, segurança, responsabilidade, rastreabilidade, imparcialidade, valores democráticos, direitos humanos, direitos fundamentais. Nesse sentido, como dito, está em tramitação no Congresso Nacional o PL 2.338, que possui forte embasamento em normas internacionais como o Regulamento de Inteligência Artificial da do Parlamento Europeu e a Carta Europeia sobre a Utilização da IA nos Sistemas Judiciais e no Respectivo Ambiente74.
Embora propostas que contribuam para a resolução das questões destacadas estejam sob investigação, podem-se seguramente mencionar:
-
Abertura à participação de representatividades das categorias profissionais jurídicas e da sociedade civil organizada, propiciando amplo debate público sobre o uso de IA na decisão judicial;
-
Realização de auditorias externas nas IA, enfrentando-se os problemas da falta de transparência e dos vieses, devido à possibilidade de acesso às informações e resultados da IA. O modelo usado para auditar as urnas eletrônicas é promissor75;
-
Estudo das possibilidades de configurações híbridas de IA para a tomada de decisão, com modelos baseados não só em dados, mas também em conhecimento. Essa formatação propicia lidar com as incompatibilidades estruturais entre a IA e o Direito, uma vez que permite à característica dialógica e democrática do processo judicial incidir no processamento das informações pela IA, inserindo as vozes dos demais atores processuais como informações a serem sopesadas pelo sistema nas decisões76;
-
Informação às partes, endoprocessual e oficialmente, sobre o uso de IA no processamento dos dados e na decisão, promovendo-se assim a transparência algorítmica;
-
Abertura de possibilidade às partes de, com base nas informações fornecidas sobre a IA utilizada, avaliar e dizer se concordam ou não com a atividade. Caso uma parte não consinta, o procedimento a ser adotado pode ser, por analogia, o mesmo aplicado aos RE e recursos especiais repetitivos - art. 1.037, §§ 8º ao 13, do Código de Processo Civil (CPC) -, em que a parte informa as razões de distinção de sua causa em face da classificação operada pela máquina, solicitando que seu processo seja destacado para julgamento por humanos;
-
Possibilidade de veiculação de pedido de nulidade ou de revisão da decisão judicial por IA, na hipótese de falta de conhecimento e consentimento prévios do sujeito77 do uso de IA na tomada de decisão78;
-
Utilização de técnicas de revisão e ajustes (fine tuning) durante os testes para o combate aos vieses, bem como uso de validações da aprendizagem ancoradas em possibilidades de funções algorítmicas representativas de procedimentos de desenviesamento, tais como: substituição de padrões, raciocínio contraintuitivo, through law, e modelo normativo de “reengenharia precaucional”79;
-
Uniformização da IA empregada pelos tribunais brasileiros por meio do CNJ, de modo a promover a identificação e a resolução de problemas de forma mais dinâmica do que ocorreria em caso de uso de sistemas diversos no Judiciário nacional.
As proposições oferecidas não esgotam as técnicas, ferramentas e outras possibilidades para enfrentamento dos problemas.
4. CONCLUSÕES
Há inquestionáveis vantagens trazidas pela informatização e pela atual implementação de IA no Judiciário brasileiro, como o ganho em celeridade e eficiência na prestação jurisdicional. No entanto, esses parâmetros não devem ser tomados isoladamente, nem se apresentam como fins em si mesmos. Em verdade, celeridade e eficiência são qualidades que devem integrar a prestação jurisdicional, a qual se apresenta como meio para realização do fim que orienta o Direito: o valor justiça, normatizado em âmbito internacional nos direitos humanos e, em dimensão nacional, nos direitos fundamentais, cujo pleno exercício apenas ocorre sob a vigência de um regime democrático.
Ante os riscos concretos das decisões por IA - como a reprodução dos juízos de valor dos desenvolvedores das IA ou a acentuação dos vieses cognitivos envolvidos no processo de tomada de decisão - e a incompatibilidade estrutural entre a forma de processamento da IA e a forma de aplicação do Direito, afigura-se recomendável, ao menos por ora, que não sejam delegadas funções decisórias à IA no âmbito judicial. Mesmo decisões interlocutórias que envolvam juízos de valor - ou seja, que impliquem não apenas o conhecimento da realidade, mas a realização de escolhas segundo os fins eleitos -, submetem-se às limitações apontadas.
Sob outro aspecto, os problemas da falta de transparência, da dificuldade de acesso aos dados e da imprecisão de informações acerca do uso de IA nas decisões judiciais no Brasil praticamente inviabilizam seu conhecimento pelo jurisdicionado e sua análise crítica (consequentemente, sua controlabilidade) pela pesquisa científica. Por exemplo, não é possível realizar simulações, testagens ou comparações acerca das respostas oferecidas pelas máquinas, tampouco observar os parâmetros decisórios para confrontá-los com outras possibilidades dogmáticas ou jurisprudenciais.
Ademais, ressalta-se a necessidade de se promover o debate público sobre a implementação da tomada de decisão por IA no Judiciário brasileiro, pois a limitação no acesso a informações, bem como sua vagueza e discrepância, inviabilizam o conhecimento da atual utilização de programas para a decisão judicial, tanto em termos de medidas quantitativas, de intensidade e de substituição, quanto aos aspectos qualitativos. De todo modo, independentemente de como se encontra o nível de inserção e de uso da IA na tomada de decisão pelo Judiciário brasileiro, afigura-se indispensável a possibilidade de contestação de decisões tomadas por IA e de sua revisão humana. Esse é, aliás, o posicionamento adotado no PL nº 2.33880 - documento elaborado com a pretensão de se tornar o marco legal da IA no país -, ao prever o direito de contestação àquele cujos interesses forem impactados pela decisão tomada por IA.
Deve-se, sem dúvida, dar continuidade ao estudo e aprimoramento das IA para a tomada de decisões, mas os riscos e deficiências mencionados evidenciam que o atual estado da arte de desenvolvimento dos sistemas de IA indica sua utilização apenas para a realização das tarefas burocráticas e repetitivas de andamento processual. As considerações críticas aqui expostas visam, enfim, à promoção da reflexão sobre o uso de IA nas decisões judiciais, evidenciando a exigência de seu aperfeiçoamento para o desempenho dessa atividade, assim como as propostas apresentadas pretendem ser contribuições no sentido desse aprimoramento.
5. REFERÊNCIAS
- ABRANCHES, Carlos Alberto Dunshee de. A aplicação cibernética ao direito e a administração da justiça. In: Conferência Nacional da Ordem dos Advogados do Brasil, 4., São Paulo. Anais [...], 1970, p. 322-339.
-
ANDRADE, André; JOIA, Luiz Antônio. Organizational structure and ICT strategies in the brazilian judiciary system. Government Information Quarterly, v. 29, s. 1, 2012, p. 32-42. Disponível em: Disponível em: https://www.sciencedirect.com/science/article/pii/S0740624X11000694 Acesso em: 20 fev. 2023.
» https://www.sciencedirect.com/science/article/pii/S0740624X11000694 -
ANGWIN, Julia; LARSON, Jeff. Machine bias: there’s software used across the country to predict future criminals. And it’s biased against blacks. ProPublica, Nova York, 2016. Disponível em: Disponível em: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing Acesso em: 04 dez. 2021.
» https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing - ALEXY, Robert. Justicia como corrección. Doxa, v. 26, p. 161-171, 2003.
- ALEXY, Robert. Teoria dos Direitos Fundamentais. São Paulo: Malheiros, 2008.
- ALEXY, Robert. Legal certainty and correctness. Ratio Juris, v. 28, n. 4, p. 441-451, 2015.
-
BAVITZ, Christopher et al. Assessing the assessments: Lessons from early state experiences in the procurement and implementation of risk assessment tools. Berkman Klein Center for Internet & Society research publication, 2018. Disponível em: Disponível em: https://dash.harvard.edu/ handle/1/37883502 Acesso em: 22 jun. 2021.
» https://dash.harvard.edu/ handle/1/37883502 - BOBBIO, Noberto. O Positivismo Jurídico: lições de Filosofia do Direito. São Paulo: Ícone, 1995.
- BOEING, Daniel H. Arruda. Ensinando um robô a julgar: pragmática, discricionariedade e vieses no uso de aprendizagem de máquina no judiciário. Florianópolis, 2019. 84 f. Monografia (Graduação) - Curso de Direito da Universidade Federal de Santa Catarina.
-
BRAGANÇA, Fernanda; BRAGANÇA, Laurinda Fátima F. P. G. Revolução 4.0 no poder judiciário: levantamento do uso de inteligência artificial nos tribunais brasileiros. Auditorium. 2019. Disponível em: Disponível em: http://revistaauditorium.jfrj.jus.br/index.php/revistasjrj/article/%20 view/256/194 Acesso em: 05 mai. 2020.
» http://revistaauditorium.jfrj.jus.br/index.php/revistasjrj/article/%20 view/256/194 -
BRASIL. Projeto de lei nº 2338. Dispõe sobre o uso da Inteligência Artificial. Diário do Senado Federal Brasília, 4 mai. 2023. Disponível em: Disponível em: https://www25.senado.leg.br/web/ atividade/materias/-/materia/157233 Acesso em: 04 out. 2023.
» https://www25.senado.leg.br/web/ atividade/materias/-/materia/157233 - BRUCH, Tiago Bruno. Judiciário brasileiro e inteligência artificial. Curitiba: CRV, 2021.
- CASTELLS, Manuel. Sociedade em rede. 21. ed. São Paulo: Paz e Terra, 2020.
- CAVALCANTI, João Carlos Gonçalves. Controle e resistências no processo de informatização da corte de justiça pernambucana (1983-1992). Recife, 2020. 232 f. Dissertação (Mestrado) - Programa de Pós-graduação em História da Universidade Católica de Pernambuco.
- CICUREL, Ronald; NICOLELIS, Miguel. O cérebro relativístico: como ele funciona e por que ele não pode ser simulado por uma máquina de Turing. Natal, Montreux, Durhan, São Paulo: Kio Press, 2015.
-
COMISSÃO de Juristas Responsável por Subsidiar Elaboração de Substitutivo sobre Inteligência Artificial no Brasil (CJSUBIA). Relatório final. Brasília, dez. 2022. Disponível em: Disponível em: https://www6g.senado.leg.br/busca/?portal=Atividade+Legislativa&q=relat%C3%B3rio+ final+cjusbia Acesso em: 04 mai. 2023.
» https://www6g.senado.leg.br/busca/?portal=Atividade+Legislativa&q=relat%C3%B3rio+ final+cjusbia -
COSTA-ABREU, Márjory da; SILVA, Bruno dos Santos F. A critical analysis of “law 4.0”: the use of automation and artificial intelligence and their impact on the judicial of Brazil. RDFT, 2020. Disponível em: Disponível em: http://www.rdft.com.br/revista/article/view/30 Acesso em: 12 mai. 2021.
» http://www.rdft.com.br/revista/article/view/30 - DEZAN, Sandro Lúcio. Desafios à transparência, à publicidade e à motivação da decisão jurídica assistida por sistemas de inteligência artificial no processo administrativo valorativo. In: PINTO, Henrique Alves et al. Inteligência artificial aplicada ao processo de tomada de decisões. Belo Horizonte: D’Plácido, 2020, p. 513-537.
- ESPOSITO, Elena. Artificial communication: how algorithms produce social intelligence. Cambridge: MIT Press, 2022.
-
FINATEC. Fundação de Empreendimentos Científicos e Tecnológicos. Edital de Seleção Pública n. 053/2018, de 19 jul. 2018. Brasília: FINATEC, 2018. Disponível em: Disponível em: http://www.finatec.org.br/editais_finatec/files/licitacoes/2018/edital_selecao_053_2018.pdf Acesso em: 18 mai. 2020.
» http://www.finatec.org.br/editais_finatec/files/licitacoes/2018/edital_selecao_053_2018.pdf -
FRÖLICH, Afonso Vinício Kirschner; ENGELMANN, Wilson. Panorama da utilização da inteligência artificial nos tribunais de justiça brasileiros. Revista Brasileira de Inteligência Artificial e Direito, RBIAD, 2020. Disponível em: Disponível em: https://rbiad.com.br/index.php/rbiad Acesso em: 02 jun. 2020.
» https://rbiad.com.br/index.php/rbiad - GARCIA, Dinio de Santis. Introdução à informática jurídica. São Paulo: USP, 1976.
- KAHNEMAN, Daniel. Rápido e devagar: duas formas de pensar. Rio de Janeiro: Objetiva, 2012.
- LAGE, Fernanda de Carvalho. Manual de inteligência artificial no direito brasileiro. Salvador: JusPODIVM, 2021.
- O, Mario G. Lições de informática jurídica. São Paulo: Editora Resenha Tributária, 1974.
- LÖW, Marieta Marks. Da automatização à virtualização: a criação do processo eletrônico no Brasil. Scire, Zaragoza, v. 18, p. 143-6, 2012.
- MAGALHÃES, Renato Vasconcelos. Automatización del raciocinio jurídico: perspectivas y límites en la aplicación de la inteligencia artificial al derecho. Burgos, 2004. 627 f. Tese (Doutorado) - Faculdade de Direito da Universidade de Burgos.
- MARTÍN, Nuria Belloso. Los desafíos iusfilosóficos de los usos de la inteligencia artificial en los sistemas judiciales: a propósito de la decisión judicial robótica vs. decisión judicial humana. In: MARTÍN, Nuria Belloso; IORIO FILHO, Rafael Mario; PINTO, Adriano Moura da Fonseca. Sociedad plural y nuevos retos del derecho. Pamplona: Editorial Aranzadi, 2021, arquivo Kindle, p. 416-515.
- NUNES, Dierle; LUD, Natanael; PEDRON, Flávio Quinaud. Desconfiando da imparcialidade dos sujeitos processuais: um estudo sobre os vieses cognitivos, a mitigação de seus efeitos e o debiasing. 2. ed. Salvador: JusPodivm, 2020.
- O’NEIL, Cathy. Armas de destrucción matemática. Madrid: Capitán Swing, 2020, arquivo Kindle
-
PAINEL DE PROJETOS DE INTELIGÊNCIA ARTIFICIAL. Conselho Nacional de Justiça (CNJ). 2020. Disponível em: Disponível em: https://paineisanalytics.cnj.jus.br/single/?appid=29d710f7-8d8f-47be-8af8-a9152545b771&sheet=b8267e5a-1f1f-41a7-90ff-d7a2f4ed34ea⟨=pt-BR&opt=ctxmenu,currsel Acesso em: 08 nov. 2021.
» https://paineisanalytics.cnj.jus.br/single/?appid=29d710f7-8d8f-47be-8af8-a9152545b771&sheet=b8267e5a-1f1f-41a7-90ff-d7a2f4ed34ea⟨=pt-BR&opt=ctxmenu,currsel - PAULO, Euflázio. Secretaria de Tecnologia de Informação do STF. RES: Ofício - solicitação de informações sobre Projeto Victor. Destinatário: Daniel Pessoa, Brasília, 2 jun. 2021, mensagem eletrônica.
- PEIXOTO, Fabiano Hartmann; SILVA, Roberta Zumblick Martins da. Inteligência artificial e direito. Curitiba: Alteridade Editora, 2019.
-
PESSOA, Daniel. O uso de inteligências artificiais no sistema judicial brasileiro: cenário de disputas. Unisul de Fato e de Direito. 2020, p. 41-56. Disponível em: Disponível em: https://portaldeperiodicos. unisul.br/index.php/%20U_Fato_Direito/article/view/9818 Acesso em: 18 out. 2020.
» https://portaldeperiodicos. unisul.br/index.php/%20U_Fato_Direito/article/view/9818 - PESSOA, Daniel. Projeto Esperança Garcia: relatos e propostas para uma pesquisa empírica sobre a inteligência artificial no modo de produção das decisões judiciais. In: CASTRO, F.A.; MAIA, M.S.F. Observatório de práticas sociojurídicas: programas de pesquisas para o campo jurídico profissional. Curitiba: CRV, 2021, p. 121-146.
- PESSOA, Daniel. Algumas contribuições da neurociência cognitiva para explicar a decisão judicial. Campina Grande: EDUEPB, 2021a.
- PESSOA, Daniel. Ofício - solicitação de informações sobre Projeto Victor. Destinatários: Ministro Presidente do STF, Luiz Fux; Pedro Felipe de Oliveira Santos; e Venício Glebson Dantas Silva. Mossoró, 18 mai. 2021b, mensagem eletrônica.
- RAMOS, Janine Vilas Boas Gonçalves. Inteligência artificial no poder judiciário brasileiro: projetos de IA nos tribunais e o sistema de apoio ao processo decisório judicial. São Paulo: Editora Dialética, 2022.
- RUFINO, Humberto d’Ávila. A informática jurídica e a prestação jurisdicional trabalhista: uma proposta concreta. Florianópolis, 1985. 170 f. Dissertação (Mestrado) - Pós-graduação em Direito, Universidade Federal de Santa Catarina.
-
SALOMÃO, Luís Felipe. (coord.). Tecnologia Aplicada à Gestão dos Conflitos no Âmbito do Poder Judiciário Brasileiro. Rio de Janeiro: FGV, 2020. Disponível em: Disponível em: https://ciapj.fgv. br/sites/ciapj.fgv.br/files/estudos_e_pesquisas_ia_1afase.pdf Acesso em: 08 mai. 2021.
» https://ciapj.fgv. br/sites/ciapj.fgv.br/files/estudos_e_pesquisas_ia_1afase.pdf -
SALOMÃO, Luís Felipe. (coord.). Inteligência artificial: tecnologia aplicada à gestão dos conflitos no âmbito do poder judiciário brasileiro. 2. ed. Rio de Janeiro: FGV, 2022. Disponível em: Disponível em: https://conhecimento.fgv.br/sites/default/files/2022-08/publicacoes/relatorio_ia_2fase.pdf Acesso em: 20 jun. 2023.
» https://conhecimento.fgv.br/sites/default/files/2022-08/publicacoes/relatorio_ia_2fase.pdf -
SALOMÃO, Luís Felipe (coord.); TAUK, Caroline Somesom et al. Inteligência artificial: tecnologia aplicada à gestão de conflitos no âmbito do Poder Judiciário brasileiro. 3. ed. Rio de Janeiro: FGV, 2023. Disponível em: Disponível em: https://ciapj.fgv.br/sites/ciapj.fgv.br/files/ relatorio_ia_3a_edicao_0.pdf Acesso em: 02 out. 23.
» https://ciapj.fgv.br/sites/ciapj.fgv.br/files/ relatorio_ia_3a_edicao_0.pdf - SCHWAB, Klaus. A quarta revolução industrial. São Paulo: Edipro, 2016.
-
SILVA, Nilton Correia et al. Document type classification for Brazil’s supreme court using a convolutional neural network. In: International Conference on Forensic Computer and Cyber Law, 10., São Paulo, 2018, p. 7-11. Disponível em: Disponível em: http://icofcs.org/2018/ICoFCS-2018-001.pdf Acesso em: 08 nov. 2021.
» http://icofcs.org/2018/ICoFCS-2018-001.pdf - SOUSA, Rosalina F. Martins de; CÂMARA, Maria Amélia Arruda; RODRIGUES, Walter de Macedo. Inteligência artificial no âmbito do poder judiciário: a participação democrática e a transparência algorítmica. In: PINTO, Henrique Alves et al. Inteligência artificial aplicada ao processo de tomada de decisões. Belo Horizonte: D’Plácido, 2020, p. 191-206.
- STF, CENTRAL DO CIDADÃO. Notificação - sua solicitação (36882 - acesso à informação) foi concluída Destinatária: Cláudia Toledo. Brasília, 20/08/2021, mensagem eletrônica.
- STF, CENTRAL DO CIDADÃO. Notificação - sua solicitação (88321 - acesso à informação - STI) foi concluída Destinatário: Daniel Pessoa. Brasília, 16/02/2023, mensagem eletrônica.
- SUSSKIND, Richard. Online courts and the future of justice. Oxford: Oxford University Press, 2019.
- SUSSKIND, Richard; SUSSKIND, Daniel. O futuro das profissões: como a tecnologia transformará o trabalho dos especialistas humanos. Lisboa: Gradiva, 2019.
- TENÓRIO, Igor. Direito e cibernética. 3. ed. Rio de Janeiro: Editora Rio, 1975.
-
TJMG. Tribunal de Justiça de Minas Gerais. TJMG utiliza inteligência artificial em julgamento virtual. Notícia no site oficial, Belo Horizonte, 07 nov. 2018. Disponível em: Disponível em: https://www.tjmg.jus.br/portal-tjmg/noticias/tjmg-utiliza-inteligencia-artificial-em-julgamento-virtual.htm Acesso em: 08 nov. 2021.
» https://www.tjmg.jus.br/portal-tjmg/noticias/tjmg-utiliza-inteligencia-artificial-em-julgamento-virtual.htm - TJMG. Tribunal de Justiça de Minas Gerais. Consulta - Fale com o TJMG. Destinatário: Cláudia Toledo. Belo Horizonte, 24 jun. 2020, mensagem eletrônica.
- TOLEDO, Cláudia. Direito Adquirido e Estado Democrático de Direito. São Paulo: Landy, 2003.
- TOLEDO, Cláudia. Inteligência Artificial e sua aplicabilidade em decisões judiciais. In: PEIXOTO, F.H. (org.). Inteligência Artificial: Estudos de Inteligência Artificial. Curitiba: Alteridade, 2021, p. 57-90.
-
TOLEDO, Cláudia; ALVES, Michelle. 2021. Inteligência Artificial Aplicada ao Direito. In: SEMINÁRIO DO OBSERVATÓRIO DE PRÁTICAS SOCIOJURÍDICAS, 1., 2021a, UFERSA, Mossoró. Disponível em: Disponível em: https://ppgd.ufersa.edu.br/wp-content/uploads/sites/ 168/2021/05/Lista-de-Trabalhos-Aprovados-nos-GTs-do-ISeminario-de-Pesquisa-do-OPS.pdf Acesso em: 08 nov. 2021.
» https://ppgd.ufersa.edu.br/wp-content/uploads/sites/ 168/2021/05/Lista-de-Trabalhos-Aprovados-nos-GTs-do-ISeminario-de-Pesquisa-do-OPS.pdf - TOLEDO, Cláudia. Solicitação 36882 - acesso à informação. Destinatário: Central do Cidadão do STF. Juiz de Fora, 28 ago. 2021b, mensagem eletrônica.
- VALENTINI, Rômulo Soares. Julgamento por computadores? As novas possibilidades no século XXI e suas implicações para o futuro do direito e do trabalho dos juristas. Belo Horizonte, 2017. 150 f. Tese (Doutorado) - Programa de Pós-graduação em Direito, Universidade Federal de Minas Gerais.
- VARELA, Francisco J. Conhecer: as ciências cognitivas: tendências e perspectivas. Lisboa: Instituto Piaget, 1995.
-
1
LAGE, Fernanda de Carvalho. Manual de inteligência artificial no direito brasileiro. Salvador: JusPODIVM, 2021, p. 109-113; SUSSKIND, Richard. Online courts and the future of justice. Oxford: Oxford University Press, 2019, p. 253; SUSSKIND, Richard; SUSSKIND, Daniel. O futuro das profissões: como a tecnologia transformará o trabalho dos especialistas humanos. Lisboa: Gradiva, 2019, p. 249, 295-296.
-
2
Cf. CASTELLS, Manuel. Sociedade em rede. 21. ed. São Paulo: Paz e Terra, 2020.
-
3
Cf. SCHWAB, Klaus. A quarta revolução industrial. São Paulo: Edipro, 2016.
-
4
Em outros lugares da sociedade global já são registradas experiências de decisão judicial através de IA, implementadas ou em curso - Estados Unidos, Estônia, Inglaterra, País de Gales, Canadá, China, Singapura e Austrália (SUSSKIND, Online courts and the future of justice. Oxford: Oxford University Press, 2019, p. 165-176; MARTÍN, Nuria Belloso. Los desafíos iusfilosóficos de los usos de la inteligencia artificial en los sistemas judiciales: a propósito de la decisión judicial robótica vs. decisión judicial humana. In: MARTÍN, Nuria Belloso; IORIO FILHO, Rafael Mario; PINTO, Adriano Moura da Fonseca. Sociedad plural y nuevos retos del derecho. Pamplona: Editorial Aranzadi, 2021, arquivo Kindle, p. 416-515).
-
5
PAINEL DE PROJETOS DE INTELIGÊNCIA ARTIFICIAL. Conselho Nacional de Justiça (CNJ). 2020. Disponível em: https://paineisanalytics.cnj.jus.br/single/?appid=29d710f7-8d8f-47be-8af8-a9152545b771&sheet =b8267e5a-1f1f-41a7-90ff-d7a2f4ed34ea⟨=pt-BR&opt=ctxmenu,currsel. Acesso em: 08 nov. 21. Porém, o referido painel deixou de ser alimentado com os dados a respeito da situação (Cf. SALOMÃO, Luís Felipe (coord.); TAUK, Caroline Somesom (coord.) et al. Inteligência artificial: tecnologia aplicada à gestão de conflitos no âmbito do Poder Judiciário brasileiro. 3. ed. Rio de Janeiro: FGV, 2023, p. 89. Disponível em: https://ciapj.fgv.br/sites/ciapj.fgv.br/files/ relatorio_ia_3a_edicao_0.pdf. Acesso em: 02 out. 2023).
-
6
SALOMÃO, Luís Felipe. (coord.). Tecnologia Aplicada à Gestão dos Conflitos no Âmbito do Poder Judiciário Brasileiro. Rio de Janeiro: FGV, 2020. Disponível em: https://ciapj.fgv.br/sites/ciapj.fgv.br/ files/estudos_e_pesquisas_ia_1afase.pdf. Acesso em: 08 mai. 2021.
-
7
SALOMÃO, Luís Felipe. (coord.). Inteligência artificial: tecnologia aplicada à gestão dos conflitos no âmbito do poder judiciário brasileiro. 2. ed. Rio de Janeiro: FGV, 2022, p. 252-254. Disponível em: https:// conhecimento.fgv.br/sites/default/files/2022-08/publicacoes/relatorio_ia_2fase.pdf. Acesso em: 20 jun. 2023.
-
8
Em fevereiro de 2022, foi instituída, a convite do Senado Federal, a Comissão de Juristas Responsável por Subsidiar Elaboração de Substitutivo sobre Inteligência Artificial (CJSUBIA) - trata-se de substitutivo aos PL nº 5.051/2019, 21/2020 e 872/2021, relativos a diferentes questões referentes à IA, que se encontravam em tramitação no Congresso Nacional. Em dezembro de 2022, a CJSUBIA entregou ao Senado Federal minuta de substitutivo, que serviu de base para a proposta em maio de 2023, pelo Presidente do Senado Federal, do PL nº 2.338/2023, que tem como objetivo estabelecer princípios, regras, diretrizes e fundamentos para regular o desenvolvimento e uso da IA no Brasil.
-
9
ALEXY, Robert. Teoria dos Direitos Fundamentais. São Paulo: Malheiros, 2008; VARELA, Francisco J. Conhecer: as ciências cognitivas: tendências e perspectivas. Lisboa: Instituto Piaget, 1995; O’NEIL, Cathy. Armas de destrucción matemática. Madrid: Capitán Swing, 2020, arquivo Kindle.
-
10
PESSOA, Daniel. O uso de inteligências artificiais no sistema judicial brasileiro: cenário de disputas. Unisul de Fato e de Direito. 2020, p. 41-56. Disponível em: https://portaldeperiodicos.unisul.br/index.php/%20U_Fato_ Direito/article/view/9818. Acesso em: 18 out. 2020; MAGALHÃES, Renato Vasconcelos. Automatización del raciocinio jurídico : perspectivas y límites en la aplicación de la inteligencia artificial al derecho. Burgos, 2004. 627 f. Tese (Doutorado) - Faculdade de Direito da Universidade de Burgos, p. 13-17, 223-233. Nos levantamentos bibliográficos, não foi possível identificar com precisão uma data que servisse de marco inicial para o processo de informatização, baseado em microcomputadores ou computadores pessoais (PC). O STF não dispõe sequer da informação de quando adquiriu o primeiro computador (Cf. STF, CENTRAL DO CIDADÃO. Notificação - sua solicitação (88321 - acesso à informação - STI) foi concluída. Destinatário: Daniel Pessoa. Brasília, 16/02/2023, mensagem eletrônica). Mas, históricos do processo de informatização sinalizam a década de 80 como início da intensificação com PC, não só no Brasil (CAVALCANTI, João Carlos Gonçalves. Controle e resistências no processo de informatização da corte de justiça pernambucana (1983-1992). Recife, 2020. 232 f. Dissertação (Mestrado) - Programa de Pós-graduação em História da Universidade Católica de Pernambuco; LÖW, Marieta Marks. Da automatização à virtualização: a criação do processo eletrônico no Brasil. Scire, Zaragoza, v. 18, p. 143-6, 2012; ANDRADE, André; JOIA, Luiz Antônio. Organizational structure and ICT strategies in the brazilian judiciary system. Government Information Quarterly, v. 29, s. 1, 2012, p. 32-42. Disponível em: https://www.sciencedirect.com/science/article/pii/S0740624X11000694. Acesso em: 20 fev. 2023).
-
11
GARCIA, Dinio de Santis. Introdução à informática jurídica. São Paulo: USP, 1976, p. 134; RUFINO, Humberto d’Ávila. A informática jurídica e a prestação jurisdicional trabalhista: uma proposta concreta. Florianópolis, 1985. 170 f. Dissertação (Mestrado) - Pós-graduação em Direito, Universidade Federal de Santa Catarina, p. 88-89; ABRANCHES, Carlos Alberto Dunshee de. A aplicação cibernética ao direito e a administração da justiça. In: Conferência Nacional da Ordem dos Advogados do Brasil, 4., São Paulo. Anais [...], 1970. p. 322-339, p. 325; VALENTINI, Rômulo Soares. Julgamento por computadores? As novas possibilidades no século XXI e suas implicações para o futuro do direito e do trabalho dos juristas. Belo Horizonte, 2017. 150 f. Tese (Doutorado) - Programa de Pós-graduação em Direito, Universidade Federal de Minas Gerais, p. 67-74.
-
12
Vide, por exemplo: LOSANO, Mario G. Lições de informática jurídica. São Paulo: Editora Resenha Tributária, 1974; TENÓRIO, Igor. Direito e cibernética. 3. ed. Rio de Janeiro: Editora Rio, 1975; GARCIA, Dinio de Santis. Introdução à informática jurídica. São Paulo: USP, 1976.
-
13
RAMOS, Janine Vilas Boas Gonçalves. Inteligência artificial no poder judiciário brasileiro: projetos de IA nos tribunais e o sistema de apoio ao processo decisório judicial. São Paulo: Editora Dialética, 2022; BRUCH, Tiago Bruno. Judiciário brasileiro e inteligência artificial. Curitiba: CRV, 2021; FRÖLICH, Afonso Vinício Kirschner; ENGELMANN, Wilson. Panorama da utilização da inteligência artificial nos tribunais de justiça brasileiros. Revista Brasileira de Inteligência Artificial e Direito , RBIAD, 2020. Disponível em: https://rbiad.com.br/index.php/rbiad. Acesso em: 02 jun. 2020; BRAGANÇA, Fernanda; BRAGANÇA, Laurinda Fátima F. P. G. Revolução 4.0 no poder judiciário: levantamento do uso de inteligência artificial nos tribunais brasileiros. Auditorium . 2019. Disponível em: http://revistaauditorium.jfrj.jus.br/index.php/revistasjrj/article /%20view/256/194. Acesso em: 05 mai. 2020.
-
14
SALOMÃO, Luís Felipe. (coord.). Inteligência artificial: tecnologia aplicada à gestão dos conflitos no âmbito do poder judiciário brasileiro. 2. ed. Rio de Janeiro: FGV, 2022, p. 41-3. Disponível em: https://conhecimento. fgv.br/sites/default/files/2022-08/publicacoes/relatorio_ia_2fase.pdf. Acesso em: 20 jun. 2023. Para detalhes descritivos sobre cada uma das plataformas e/ou dos programas citados, conferir a fonte indicada e a página do CNJ na internet: https://cnj.jus.br.
-
15
As pessoas do Judiciário brasileiro têm acesso a todos os programas de automação e de IA, por meio do CNJ: https://www.cnj.jus.br/sistemas/git-jus/acesso/.
-
16
SALOMÃO, Luís Felipe. (coord.). Inteligência artificial: tecnologia aplicada à gestão dos conflitos no âmbito do poder judiciário brasileiro. 2. ed. Rio de Janeiro: FGV, 2022, , p. 17, 52-250, 258-260. Disponível em: https://conhecimento.fgv.br/sites/default/files/2022-08/publicacoes/relatorio_ia_2fase.pdf. Acesso em: 20 jun. 2023. A indagação sobre a validação dos resultados foi a seguinte: “AS DECISÕES/RESULTADOS DO SISTEMA PASSAM POR VALIDAÇÃO HUMANA? (ex.: as predições da solução são utilizadas como sugestões/recomendações, que são submetidas à validação de um ser humano?)”.
-
17
SALOMÃO, Luís Felipe (coord.); TAUK, Caroline Somesom (coord.) et al. Inteligência artificial: tecnologia aplicada à gestão de conflitos no âmbito do Poder Judiciário brasileiro. 3. ed. Rio de Janeiro: FGV, 2023, p. 85. Disponível em: https://ciapj.fgv.br/sites/ciapj.fgv.br/files/ relatorio_ia_3a_edicao_0.pdf. Acesso em: 02 out. 23.
-
18
BRASIL. Projeto de lei nº 2338. Dispõe sobre o uso da Inteligência Artificial. Diário do Senado Federal . Brasília, 4 mai. 2023. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233. Acesso em: 04 out. 2023.
-
19
PAINEL DE PROJETOS DE INTELIGÊNCIA ARTIFICIAL (cf. nota 7); SALOMÃO, Luís Felipe. (coord.). Tecnologia Aplicada à Gestão dos Conflitos no Âmbito do Poder Judiciário Brasileiro. Rio de Janeiro: FGV, 2020. Disponível em: https://ciapj.fgv.br/sites/ciapj.fgv.br/files/estudos_e_pesquisas_ia_1afase.pdf. Acesso em: 08 mai. 2021; SALOMÃO, Luís Felipe (coord.); TAUK, Caroline Somesom (coord.) et al. Inteligência artificial: tecnologia aplicada à gestão de conflitos no âmbito do Poder Judiciário brasileiro. 3. ed. Rio de Janeiro: FGV, 2023. Disponível em: https://ciapj.fgv.br/sites/ciapj.fgv.br/files/ relatorio_ia_3a_edicao_0.pdf. Acesso em: 02 out. 23; e SALOMÃO, Luís Felipe (coord.); TAUK, Caroline Somesom (coord.) et al. Inteligência artificial: tecnologia aplicada à gestão de conflitos no âmbito do Poder Judiciário brasileiro. 3. ed. Rio de Janeiro: FGV, 2023. Disponível em: https://ciapj.fgv.br/sites/ciapj.fgv.br/files/ relatorio_ia_3a_edicao_0.pdf. Acesso em: 02 out. 23.
-
20
SALOMÃO, Luís Felipe (coord.); TAUK, Caroline Somesom (coord.) et al. Inteligência artificial: tecnologia aplicada à gestão de conflitos no âmbito do Poder Judiciário brasileiro. 3. ed. Rio de Janeiro: FGV, 2023, p. 79. Disponível em: https://ciapj.fgv.br/sites/ciapj.fgv.br/files/ relatorio_ia_3a_edicao_0.pdf. Acesso em: 02 out. 23.
-
21
As informações fornecidas pelo STF serão discutidas adiante no texto. Por sua vez, o TJMG informou que “a 8ª Câmara Cível julgou, em 05/11/2019, 613 processos relacionados à controvérsia descrita no Tema 588 do STJ e ADI 3106, utilizando-se das ferramentas Radar e Ágil” (TJMG. Tribunal de Justiça de Minas Gerais. Consulta - Fale com o TJMG . Destinatário: Cláudia Toledo. Belo Horizonte, 24 jun. 2020, mensagem eletrônica). Porém, não há no site do tribunal qualquer informação relativa a tal julgamento, uma vez que a notícia que consta é referente ao julgamento de 280 processos de uma só vez, com um único “click”, através da ferramenta Radar, em sessão de julgamento no dia 07 de novembro de 2018 (TJMG. Tribunal de Justiça de Minas Gerais. TJMG utiliza inteligência artificial em julgamento virtual. Notícia no site oficial, Belo Horizonte, 07 nov. 2018. Disponível em: https://www.tjmg.jus.br/portal-tjmg/noticias/tjmg-utiliza-inteligencia-artificial-em-julgamento-virtual.htm. Acesso em: 08 nov. 2021).
-
22
PAINEL DE PROJETOS DE INTELIGÊNCIA ARTIFICIAL, cf. nota 7.
-
23
PAINEL DE PROJETOS DE INTELIGÊNCIA ARTIFICIAL, cf. nota 7.
-
24
BRASIL. Projeto de lei nº 2338. Dispõe sobre o uso da Inteligência Artificial. Diário do Senado Federal . Brasília, 4 mai. 2023. Disponível em: https://www25.senado.leg.br/web/ atividade/materias/-/materia/157233. Acesso em: 04 out. 2023.
-
25
Além do CNJ, os Tribunais investigados foram o STF, STJ, TST, TRF1 e TJDFT (SALOMÃO, Luís Felipe (coord.); TAUK, Caroline Somesom (coord.) et al. Inteligência artificial: tecnologia aplicada à gestão de conflitos no âmbito do Poder Judiciário brasileiro. 3. ed. Rio de Janeiro: FGV, 2023, p. 8. Disponível em: https://ciapj.fgv.br/sites/ciapj.fgv.br/files/ relatorio_ia_3a_edicao_0.pdf. Acesso em: 02 out. 23).
-
26
SALOMÃO, Luís Felipe (coord.); TAUK, Caroline Somesom (coord.) et al. Inteligência artificial: tecnologia aplicada à gestão de conflitos no âmbito do Poder Judiciário brasileiro. 3. ed. Rio de Janeiro: FGV, 2023, p. 15, 76-81 e 89-90. Disponível em: https://ciapj.fgv.br/sites/ciapj.fgv.br/files/ relatorio_ia_3a_edicao_0.pdf. Acesso em: 02 out. 23.
-
27
Não obstante, os pesquisadores da FGV consideraram que haveria adequação “em parte” aos dispositivos da Resolução nº 332/2020 do CNJ que tratam da rastreabilidade, por entenderem que as respostas dos Tribunais foram de que há algum mecanismo de auditabilidade interna (cf. SALOMÃO, Luís Felipe (coord.); TAUK, Caroline Somesom (coord.) et al. Inteligência artificial: tecnologia aplicada à gestão de conflitos no âmbito do Poder Judiciário brasileiro. 3. ed. Rio de Janeiro: FGV, 2023, p. 81. Disponível em: https://ciapj.fgv.br/sites/ciapj.fgv.br/files/ relatorio_ia_3a_edicao_0.pdf. Acesso em: 02 out. 23).
-
28
TOLEDO, Cláudia; ALVES, Michelle. 2021. Inteligência Artificial Aplicada ao Direito. In: SEMINÁRIO DO OBSERVATÓRIO DE PRÁTICAS SOCIOJURÍDICAS, 1., 2021a, UFERSA, Mossoró. Disponível em: https://ppgd.ufersa.edu.br/wp-content/uploads/sites/ 168/2021/05/Lista-de-Trabalhos-Aprovados-nos-GTs-do-ISeminario-de-Pesquisa-do-OPS.pdf Acesso em: 08 nov. 2021
-
29
FINATEC. Fundação de Empreendimentos Científicos e Tecnológicos. Edital de Seleção Pública n. 053/2018, de 19 jul. 2018. Brasília: FINATEC, 2018. Disponível em: http://www.finatec.org.br/editais_finatec/files/ licitacoes/2018/edital_selecao_053_2018.pdf. Acesso em: 18 mai. 2020.
-
30
SALOMÃO, Luís Felipe. (coord.). Tecnologia Aplicada à Gestão dos Conflitos no Âmbito do Poder Judiciário Brasileiro. Rio de Janeiro: FGV, 2020, p. 27. Disponível em: https://ciapj.fgv.br/sites/ciapj.fgv.br/ files/estudos_e_pesquisas_ia_1afase.pdf. Acesso em: 08 mai. 2021.
-
31
TOLEDO, Cláudia. Solicitação 36882 - acesso à informação. Destinatário: Central do Cidadão do STF. Juiz de Fora, 28 ago. 2021b, mensagem eletrônica.
-
32
Conferir em: https://portal.stf.jus.br/noticias/verNoticiaDetalhe.asp?idConteudo=499690&ori=1 e https://portal.stf.jus.br/noticias/verNoticiaDetalhe.asp?idConteudo=507120&ori=1
-
33
Cf. BRUCH, Tiago Bruno. Judiciário brasileiro e inteligência artificial. Curitiba: CRV, 2021, apêndice B. Destaque-se que a falta de informações, de transparência e de publicidade não é característica exclusiva do programa Victor, mas, como enfatizado, de basicamente todos os sistemas de IA adotados pelo Judiciário brasileiro. Nesse sentido, cabe ressaltar que, no PL nº 2.338, estipula-se que pessoas afetadas por sistemas de IA têm direito à informação prévia quanto às suas interações com tais sistemas e direito à explicação sobre a decisão tomada por IA, além de direito de contestar tal decisão, se ela produzir efeitos jurídicos que impactem de maneira significativa seus interesses (art. 5º, inc. I, II, III) - cf. BRASIL. Projeto de lei nº 2338. Dispõe sobre o uso da Inteligência Artificial. Diário do Senado Federal . Brasília, 4 mai. 2023. Disponível em: https://www25.senado.leg.br/web/ atividade/materias/-/materia/157233. Acesso em: 04 out. 2023.
-
34
PESSOA, Daniel. Ofício - solicitação de informações sobre Projeto Victor. Destinatários: Ministro Presidente do STF, Luiz Fux; Pedro Felipe de Oliveira Santos; e Venício Glebson Dantas Silva. Mossoró, 18 mai. 2021b, mensagem eletrônica; PAULO, Euflázio. Secretaria de Tecnologia de Informação do STF. RES: Ofício - solicitação de informações sobre Projeto Victor. Destinatário: Daniel Pessoa, Brasília, 2 jun. 2021, mensagem eletrônica.
-
35
PESSOA, Daniel. Ofício - solicitação de informações sobre Projeto Victor. Destinatários: Ministro Presidente do STF, Luiz Fux; Pedro Felipe de Oliveira Santos; e Venício Glebson Dantas Silva. Mossoró, 18 mai. 2021b, mensagem eletrônica; PAULO, Euflázio. Secretaria de Tecnologia de Informação do STF. RES: Ofício - solicitação de informações sobre Projeto Victor. Destinatário: Daniel Pessoa, Brasília, 2 jun. 2021, mensagem eletrônica.
-
36
SILVA, Nilton Correia et. al. Document type classification for Brazil’s supreme court using a convolutional neural network. In: International Conference on Forensic Computer and Cyber Law, 10., São Paulo, 2018, p. 7-11. Disponível em: http://icofcs.org/2018/ICoFCS-2018-001.pdf. Acesso em: 08 nov. 2021.
-
37
LAGE, Fernanda de Carvalho. Manual de inteligência artificial no direito brasileiro. Salvador: JusPODIVM, 2021, p. 265-287.
-
38
LAGE, Fernanda de Carvalho. Manual de inteligência artificial no direito brasileiro. Salvador: JusPODIVM, 2021, p. 271-273.
-
39
COSTA-ABREU, Márjory da; SILVA, Bruno dos Santos F. A critical analysis of “law 4.0”: the use of automation and artificial intelligence and their impact on the judicial of Brazil. RDFT, 2020. Disponível em: http://www.rdft.com.br/revista/article/view/30. Acesso em: 12 mai. 2021.
-
40
TOLEDO, Cláudia; ALVES, Michelle. 2021. Inteligência Artificial Aplicada ao Direito. In: SEMINÁRIO DO OBSERVATÓRIO DE PRÁTICAS SOCIOJURÍDICAS, 1., 2021a, UFERSA, Mossoró. Disponível em: https://ppgd.ufersa.edu.br/wp-content/uploads/sites/168/2021/05/Lista-de-Trabalhos-Aprovados-nos-GTs-do-ISeminario-de-Pesquisa-do-OPS.pdf Acesso em: 08 nov. 2021
-
41
TOLEDO, Cláudia; ALVES, Michelle. 2021. Inteligência Artificial Aplicada ao Direito. In: SEMINÁRIO DO OBSERVATÓRIO DE PRÁTICAS SOCIOJURÍDICAS, 1., 2021a, UFERSA, Mossoró. Disponível em: https://ppgd.ufersa.edu.br/wp-content/uploads/sites/ 168/2021/05/Lista-de-Trabalhos-Aprovados-nos-GTs-do-ISeminario-de-Pesquisa-do-OPS.pdf Acesso em: 08 nov. 2021
-
42
RAMOS, Janine Vilas Boas Gonçalves. Inteligência artificial no poder judiciário brasileiro: projetos de IA nos tribunais e o sistema de apoio ao processo decisório judicial. São Paulo: Editora Dialética, 2022, p. 74, 101.
-
43
BRUCH, Tiago Bruno. Judiciário brasileiro e inteligência artificial. Curitiba: CRV, 2021, p. 105-152 e apêndices B a G.
-
44
BRUCH, Tiago Bruno. Judiciário brasileiro e inteligência artificial. Curitiba: CRV, 2021, apêndices B a G.
-
45
Levando-se em conta as situações nas quais a validação da decisão tomada pela máquina se limite ao mero “click”, sem qualquer revisão ou supervisão.
-
46
Cf. BRUCH, Tiago Bruno. Judiciário brasileiro e inteligência artificial. Curitiba: CRV, 2021, itens 25 e 26 dos apêndices B a G. “Por outro lado, cabe apontar que em nenhuma aplicação das ferramentas há o aviso explícito aos usuários externos sobre o uso da IA para o caso que está sendo pesquisado” (cf. SALOMÃO, Luís Felipe (coord.); TAUK, Caroline Somesom (coord.) et al. Inteligência artificial: tecnologia aplicada à gestão de conflitos no âmbito do Poder Judiciário brasileiro. 3. ed. Rio de Janeiro: FGV, 2023, p. 84. Disponível em: https://ciapj.fgv.br/sites/ciapj.fgv.br/files/ relatorio_ia_3a_edicao_0.pdf. Acesso em: 02 out. 23).
-
47
BRASIL. Projeto de lei nº 2338. Dispõe sobre o uso da Inteligência Artificial. Diário do Senado Federal . Brasília, 4 mai. 2023. Disponível em: https://www25.senado.leg.br/web/ atividade/materias/-/materia/157233. Acesso em: 04 out. 2023.
-
48
MAGALHÃES, Renato Vasconcelos. Automatización del raciocinio jurídico: perspectivas y límites en la aplicación de la inteligencia artificial al derecho. Burgos, 2004. 627 f. Tese (Doutorado) - Faculdade de Direito da Universidade de Burgos, p. 390-477.
-
49
SILVA, Nilton Correia et. al. Document type classification for Brazil’s supreme court using a convolutional neural network. In: International Conference on Forensic Computer and Cyber Law, 10., São Paulo, 2018, p. 7-11. Disponível em: http://icofcs.org/2018/ICoFCS-2018-001.pdf. Acesso em: 08 nov. 2021.
-
50
Termo usado na acepção da ciência da computação. Pode ser definido como um vocabulário com especificação dos respectivos sentidos - a estrutura semântica do conhecimento que se procura, simbolicamente, representar na IA (cf. MAGALHÃES, Renato Vasconcelos. Automatización del raciocinio jurídico : perspectivas y límites en la aplicación de la inteligencia artificial al derecho. Burgos, 2004. 627 f. Tese (Doutorado) - Faculdade de Direito da Universidade de Burgos, p. 223-248, 621).
-
51
VARELA, Francisco J. Conhecer: as ciências cognitivas: tendências e perspectivas. Lisboa: Instituto Piaget, 1995, p. 77-78.
-
52
TOLEDO, Cláudia. Direito Adquirido e Estado Democrático de Direito. São Paulo: Landy, 2003, p. 58.
-
53
BOBBIO, Noberto. O Positivismo Jurídico: lições de Filosofia do Direito. São Paulo: Ícone, 1995, p. 135.
-
54
ALEXY, Robert. Justicia como corrección. Doxa, v. 26, p. 161-171, 2003; ALEXY, Robert. Legal certainty and correctness. Ratio Juris, v. 28, n. 4, p. 441-451, 2015.
-
55
CICUREL, Ronald; NICOLELIS, Miguel. O cérebro relativístico: como ele funciona e por que ele não pode ser simulado por uma máquina de Turing. Natal, Montreux, Durhan, São Paulo: Kio Press, 2015, p. 59-74.
-
56
VARELA, Francisco J. Conhecer: as ciências cognitivas: tendências e perspectivas. Lisboa: Instituto Piaget, 1995, p. 9-21.
-
57
KAHNEMAN, Daniel. Rápido e devagar: duas formas de pensar. Rio de Janeiro: Objetiva, 2012, p. 37-38.
-
58
PESSOA, Daniel. Algumas contribuições da neurociência cognitiva para explicar a decisão judicial. Campina Grande: EDUEPB, 2021a, p. 286-291.
-
59
KAHNEMAN, Daniel. Rápido e devagar: duas formas de pensar. Rio de Janeiro: Objetiva, 2012, p. 11-19.
-
60
PESSOA, Daniel. O uso de inteligências artificiais no sistema judicial brasileiro: cenário de disputas. Unisul de Fato e de Direito. 2020, p. 41-56. Disponível em: https://portaldeperiodicos.unisul.br/index.php/%20U_Fato_ Direito/article/view/9818. Acesso em: 18 out. 2020, p. 51-53.
-
61
PESSOA, Daniel. Algumas contribuições da neurociência cognitiva para explicar a decisão judicial. Campina Grande: EDUEPB, 2021a, p. 357-361.
-
62
ANGWIN, Julia; LARSON, Jeff. Machine bias: there’s software used across the country to predict future criminals. And it’s biased against blacks. ProPublica, Nova York, 2016. Disponível em: https:// www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing. Acesso em: 04 dez. 2021.
-
63
PEIXOTO, Fabiano Hartmann; SILVA, Roberta Zumblick Martins da. Inteligência artificial e direito. Curitiba: Alteridade Editora, 2019, p. 88.
-
64
TOLEDO, Cláudia. Inteligência Artificial e sua aplicabilidade em decisões judiciais, p. 82-83. In: PEIXOTO, F.H. (org.). Inteligência Artificial: Estudos de Inteligência Artificial. Curitiba: Alteridade, 2021, p. 57-90.
-
65
ESPOSITO, Elena. Artificial communication: how algorithms produce social intelligence. Cambridge: MIT Press, 2022, p. 56-57 e 111-112.
-
66
ESPOSITO, Elena. Artificial communication: how algorithms produce social intelligence. Cambridge: MIT Press, 2022, p. 17-18, 25-30, 55-56 e 116-122.
-
67
MARTÍN, Nuria Belloso. Los desafíos iusfilosóficos de los usos de la inteligencia artificial en los sistemas judiciales: a propósito de la decisión judicial robótica vs. decisión judicial humana, p. 433-434. In: MARTÍN, Nuria Belloso; IORIO FILHO, Rafael Mario; PINTO, Adriano Moura da Fonseca. Sociedad plural y nuevos retos del derecho. Pamplona: Editorial Aranzadi, 2021, arquivo Kindle, p. 416-515; O’NEIL, Cathy. Armas de destrucción matemática. Madrid: Capitán Swing, 2020, arquivo Kindle, p. 274; BOEING, Daniel H. Arruda. Ensinando um robô a julgar : pragmática, discricionariedade e vieses no uso de aprendizagem de máquina no judiciário. Florianópolis, 2019. 84 f. Monografia (Graduação) - Curso de Direito da Universidade Federal de Santa Catarina, p. 66-80.
-
68
SUSSKIND, Richard; SUSSKIND, Daniel. O futuro das profissões: como a tecnologia transformará o trabalho dos especialistas humanos. Lisboa: Gradiva, 2019, p. 340, 364; SOUSA, Rosalina F. Martins de; CÂMARA, Maria Amélia Arruda; RODRIGUES, Walter de Macedo. Inteligência artificial no âmbito do poder judiciário: a participação democrática e a transparência algorítmica, p. 201-205. In: PINTO, Henrique Alves et al. Inteligência artificial aplicada ao processo de tomada de decisões. Belo Horizonte: D’Plácido, 2020, p. 191-206.
-
69
O’NEIL, Cathy. Armas de destrucción matemática. Madrid: Capitán Swing, 2020, arquivo Kindle, p. 269-274; DEZAN, Sandro Lúcio. Desafios à transparência, à publicidade e à motivação da decisão jurídica assistida por sistemas de inteligência artificial no processo administrativo valorativo, p. 518-519. In: PINTO, Henrique Alves et al. Inteligência artificial aplicada ao processo de tomada de decisões. Belo Horizonte: D’Plácido, 2020, p. 513-537.
-
70
O’NEIL, Cathy. Armas de destrucción matemática. Madrid: Capitán Swing, 2020, arquivo Kindle, p. 34.
-
71
BAVITZ, Christopher et al. Assessing the assessments: Lessons from early state experiences in the procurement and implementation of risk assessment tools. Berkman Klein Center for Internet & Society research publication, 2018. Disponível em: https://dash.harvard.edu/handle/1/37883502. Acesso em: 22 jun. 2021.
-
72
TOLEDO, Cláudia. Inteligência Artificial e sua aplicabilidade em decisões judiciais. In: PEIXOTO, F. H. (org.). Inteligência Artificial: Estudos de Inteligência Artificial. Curitiba: Alteridade, 2021, p. 57-90.
-
73
Muito embora isso não se encontre explicitamente afirmado isso na 3ª edição do Relatório da FGV sobre o uso de IA e automação no Judiciário, essa é uma conclusão que se extrai da interpretação dos dados, informações e análises constantes do documento em referência.
-
74
COMISSÃO de Juristas Responsável por Subsidiar Elaboração de Substitutivo sobre Inteligência Artificial no Brasil (CJSUBIA). Relatório final. Brasília, dez. 2022. Disponível em: https://www6g.senado.leg.br/ busca/?portal=Atividade+Legislativa&q=relat%C3%B3rio+ final+cjusbia Acesso em: 04 mai. 2023.
-
75
LAGE, Fernanda de Carvalho. Manual de inteligência artificial no direito brasileiro. Salvador: JusPODIVM, 2021, p. 323.
-
76
MAGALHÃES, Renato Vasconcelos. Automatización del raciocinio jurídico: perspectivas y límites en la aplicación de la inteligencia artificial al derecho. Burgos, 2004. 627 f. Tese (Doutorado) - Faculdade de Direito da Universidade de Burgos, p. 248-253, 264-265, 505-526.
-
77
É plausível que se dê com certa frequência, pois há notícia de uso de IA para decisão em 280 processos, sem que haja informações, no website do TJMG, se as partes foram notificadas a respeito, por exemplo.
-
78
Pode ser considerada nulidade tanto em razão do desrespeito aos direitos de consentimento prévio ao processamento dos dados e de acesso às informações sobre os tratamentos e os critérios utilizados para as classificações e todas as decisões tomadas (previstos nos arts. 6º, I, IV, V, VI e IX, 7º, §§ 4º e 6º, 9º e incisos, e 18, I, II e III, da Lei nº 13.709/2018, a LGPD), quanto por a decisão artificial não atender aos requisitos do dever de fundamentação (art. 489, § 1º, do CPC). A revisão da decisão judicial funda-se no art. 20 da Lei nº 13.709/2018.
-
79
NUNES, Dierle; LUD, Natanael; PEDRON, Flávio Quinaud. Desconfiando da imparcialidade dos sujeitos processuais: um estudo sobre os vieses cognitivos, a mitigação de seus efeitos e o debiasing. 2. ed. Salvador: JusPodivm, 2020, p. 209-220.
-
80
BRASIL. Projeto de lei nº 2338. Dispõe sobre o uso da Inteligência Artificial. Diário do Senado Federal . Brasília, 4 mai. 2023. Disponível em: https://www25.senado.leg.br/web/atividade/materias/-/materia/157233. Acesso em: 04 out. 2023.
Datas de Publicação
-
Publicação nesta coleção
19 Jan 2024 -
Data do Fascículo
2023
Histórico
-
Recebido
07 Jun 2022 -
Aceito
19 Abr 2023