Open-access RECONHECIMENTO FACIAL: TECNOLOGIA, RACISMO E CONSTRUÇÃO DE MUNDOS POSSÍVEIS

RECONOCIMIENTO FACIAL: TECNOLOGÍA, RACISMO Y CONSTRUCCIÓN DE MUNDOS POSIBLES

FACIAL RECOGNITION: TECHNOLOGY, RACISM AND CONSTRUCTION OF POSSIBLE WORLDS

Resumo

Racismo e tecnologia são importantes mediadores societários, hierarquizando grupos e reproduzindo privilégios e exclusões. Podem, contudo, inviabilizar denúncias de desigualdades, seja pelo “mito da democracia racial” ou pela ideia de neutralidade da tecnologia. Discutiremos a eficácia da articulação entre racismo e tecnologia por conta de uma dupla opacidade: negação do racismo e a negação política da tecnologia. Trazemos o reconhecimento facial como aparato sociotécnico que, articulado aos corpos negros e a realidades brasileiras, ora produz invisibilidades, ora reacentua visibilidades. A pesquisa teórica reúne conceitos do pensamento social brasileiro, versando sobre relações raciais e criminologia marginal, bem como autores do campo da Ciência, Tecnologia e Sociedade (CTS), que nos auxiliam a explicitar a não neutralidade da tecnologia e a politização da gestão algorítmica. Concluímos pela necessária ampliação das vozes dissonantes que denunciam o racismo na produção de técnicas pretensamente neutras, numa proposição cosmopolítica, de modo a poder “decidir com” as pessoas que são reconhecidas ou invisibilizadas.

Palavras chaves: Reconhecimento facial; Tecnologia; Racismo algorítmico; Cosmopolítica

Resumen

El racismo y la tecnología son importantes mediadores sociales, jerarquizan grupos, reproducen privilegios y exclusiones. Sin embargo, pueden hacer inviable denunciar las desigualdades, ya sea por el "mito de la democracia racial" o por la “neutralidad de la tecnología”. Discutiremos la efectividad de la articulación entre racismo y tecnología debido a una doble opacidad: la negación del racismo y la negación política de la tecnología. Presentamos el reconocimiento facial como un aparato sociotécnico que, articulado con los cuerpos negros y las realidades brasileñas, a veces produce invisibilidades y as veces vuelve a enfatizar las visibilidades. La investigación teórica reúne conceptos del pensamiento social brasileño que abordan las relaciones raciales y la criminología marginal, así como autores del campo de la ciencia, tecnología y sociedad (CTS), que nos ayudan a explicar la no neutralidad de la tecnología y la politización de la gestión algorítmica. Concluimos por la necesaria amplificación de voces disonantes que denuncian el racismo en la producción de técnicas supuestamente neutrales, una propuesta cosmopolítica, para poder “decidir con” las personas reconocidas o invisibilizadas.

Palabras clave: Reconocimiento facial; Tecnología; Racismo algorítmico; Cosmopolítica

Abstract

Racism and technology are important societal mediators, hierarchizing groups and reproducing privileges and exclusions. They can, however, make reports of inequalities unfeasible, due to the "myth of racial democracy" or the idea of technology neutrality. We discuss the effectiveness of the articulation between racism and technology due to a double opacity: denial of racism and political denial of technology. We bring facial recognition as a sociotechnical apparatus that, articulated with black bodies and Brazilian realities, sometimes produces invisibilities, sometimes re-emphasizes visibilities. The theoretical research brings together concepts from Brazilian social thought, dealing with racial relations and marginal criminology, as well as authors from the field of Science, Technology and Society (STS), who help us to explain the non-neutrality of technology and the politicization of algorithmic management. We conclude by the necessary amplification of dissonant voices that denounce racism in the production of supposedly neutral techniques, in a cosmopolitical proposition, in order to be able to “decide with” the people who are recognized or made invisible.

Keywords: Facial recognition; Technology; Algorithmic racism; Cosmopolitics

Introdução

Acusado de roubar uma loja de luxo, Robert Williams, homem negro estadunidense, foi abordado e algemado ao chegar em casa, em frente a suas duas filhas e sua esposa. A prisão ocorreu com o auxílio de um software de Reconhecimento Facial (RF) que, ao juntar a foto da carteira de motorista de Williams com o vídeo do assalto, filmado pelas câmeras de segurança, soltou o alerta para a prisão. O “único detalhe” do caso é que Williams não cometeu o crime. As imagens do assalto à loja mostravam outro homem negro (Silva, 2022).

Esse não é um caso isolado. Falhas no sistema de RF não são incomuns e esse problema chegou ao Brasil. Se, como dizem, o que está em cena é apenas uma falha técnica que aponta para uma limitação tecnológica, não deveríamos então deixar essa questão a cargo dos programadores e sua expertise técnica? Nossa aposta é que não. Se olhamos de perto para essa série de casos isolados que se repetem dia após dia, para além da câmera e da tecnologia de RF, o que se desenha é um emaranhado de humanos e objetos, negociações e conceitos, natureza e sociedade, ética e política. Quando dizemos “eis uma câmera”, o que parece um fato independente e autônomo é, como diz John Law (1992), a pontualização de uma rede composta por humanos e não humanos que trabalham intensamente para manter-se de pé. Na prática, as tecnologias de RF revelam-se como rede sociotécnica (Latour, 2012) evidenciando que falar de técnica é também falar de ética e de política.

Tecnologias de RF têm se espalhado por cidades do mundo inteiro, carregando intensas controvérsias. No campo da segurança pública, o caminho costuma ser o mesmo: a chegada é quase sempre anunciada por políticos como uma solução para os problemas de segurança da cidade; na sequência, sua utilização acaba por acarretar novos problemas que culminam em protestos com pedidos de banimento da tecnologia 1.

Questões como privacidade dos cidadãos, financiamento de empresas privadas a ferramentas de segurança pública, uso pouco transparente do dispositivo e o próprio erro da ferramenta no momento de reconhecer criminosos alimentam as controvérsias e as críticas ao uso dessa tecnologia. Uma proposição como o banimento, por exemplo, se sustenta na problematização da universalidade desses dispositivos, apontando seu viés racial, com consequências explicitamente perigosas para determinadas pessoas.

O erro de uma tecnologia de RF ligada à segurança pública causou, como destacamos na cena que abre esse artigo, a prisão de Robert Williams. A questão é que o erro não é eventual, tampouco aleatório. Joy Buolamwini e Timnit Gebru (2018) demonstraram como sistemas de verificação facial comerciais têm desempenho muito pior para identificar pessoas pretas, sobretudo mulheres pretas. Viés racial é um nome técnico para o racismo no âmbito da Inteligência Artificial (IA) e, no caso do RF, suas consequências podem acarretar em prisões equivocadas de pessoas pretas com o selo da eficácia e da neutralidade tecnológicas.

Tarcízio Silva (2022, p. 69) nomeia esse viés de racismo algorítmico, “modo pelo qual a disposição de tecnologias e imaginários sociotécnicos em um mundo moldado pela supremacia branca realiza a ordenação algorítmica racializada de classificação social, recursos e violência em detrimento de grupos minorizados”. A conceituação é extremamente importante para resistir à ideia de que os erros advindos de um aparato sociotécnico não passam de equívoco frente ao constante aprimoramento da tecnologia, que falhas acontecem e, inclusive, são importantes para o avanço tecnológico. No entanto, são determinados grupos que estão mais sujeitos aos erros dessa tecnologia e essas falhas podem colocar a vida desses grupos em risco. Segundo Latour (2011), direcionar a atenção de modo mais detido a esses erros é a oportunidade de abrir a “caixa-preta"2 que envolve esse aparato, seguir suas conexões, mediações e articulações e apontar sua dimensão política: que discursos e práticas sustentam seus usos? Sobre quais realidades esses aparatos incidirão?

Neste artigo utilizamos a tecnologia de RF como disparador para discutir como o racismo pode se articular às tecnologias e como a apreensão dessa articulação é dificultada em função das concepções que envolvem as tecnologias e o racismo no Brasil. Trata-se de pesquisa teórica, que articula exemplos de intersecção entre as tecnologias de RF e o modo como o racismo opera na sociedade brasileira, direcionando a discussão para a politização da tecnologia, a desnaturalização de práticas cotidianas racistas e a necessidade de uma ampliação dos debates, expondo as diferenças, em uma aposta de sociedade equânime.

Se, por um lado, a suposta neutralidade das tecnologias invisibiliza o sentido político encarnado em sua constituição e práticas, por outro, o mito da democracia racial impede que se considere que pessoas negras sofrem racismo no Brasil. Com isso, o racismo sofrido por pessoas em função dos aparatos tecnológicos é chamado por Silva (2022) de dupla opacidade, “modo pelo qual os discursos hegemônicos invisibilizam tanto os aspectos sociais da tecnologia quanto os debates sobre a primazia de questões raciais nas diversas esferas da sociedade” (p. 2). Ou seja, se não é possível dizer que se sofre racismo em um país com suposta democracia racial, será ainda mais difícil vislumbrar que há algum tipo de hierarquia racial sendo reproduzida a partir das articulações com as tecnologias.

Primeira opacidade: tecnologia como produção de neutralidade e invisibilidades

Na abertura deste artigo, partimos de uma cena que contextualiza o uso do RF no âmbito da segurança pública, porém não é somente nessa área que essa tecnologia tem sido instrumentalizada. Controle de acesso a estabelecimentos, rastreio de comportamentos para publicidades, diferentes funções em celulares e análises biométricas são exemplos que permeiam nosso cotidiano (Oliveira, 2021). Dados biométricos passaram a ser uma tendência irresistível, “um instrumento indispensável para a definição e o reconhecimento da identidade pessoal” (Rodotà, 2004, p. 91).

Como sustenta Éric Sadin (2015), experimentamos uma nova era da história da técnica, com proliferação de captadores e objetos conectados. Nossos atos e movimentos mais simples e cotidianos, sobretudo o que exprimimos involuntariamente, são transformados em dados e reduzidos a códigos numéricos. Essa “inteligência da técnica”, que busca otimizar, fluidificar e securitizar nosso cotidiano individual e coletivo, constitui uma era de ‘algoritmização do mundo e da vida’, instaurando um novo tipo de inteligibilidade do real, fundada na racionalidade numérica, cuja “arquitetura” envolve: captação massiva de dados e poder de estocagem cada vez mais ampliado; tratamento dos dados em velocidade cada vez mais acelerada; detecção de correlações significativas; e interpretação automatizada dos fenômenos. Merece destaque a capacidade de rebatimento de tudo isso nas intencionalidades, tornando o algoritmo o “órgão” privilegiado de inteligibilidade do real, que produz e certifica o conhecimento (Gillespie, 2018a).

O ponto nevrálgico nessa modulação algorítmica é que ela se sustenta em uma concepção hegemônica da neutralidade da tecnologia. Há uma tendência a tratar os algoritmos como ferramentas não problemáticas a serviço de uma atividade maior: encontrar uma resposta, resolver um problema, entreter. Como nos ensinam autores do campo da Ciência, Tecnologia e Sociedade (CTS), os dispositivos tecnológicos constituem verdadeiras “caixas-pretas” (Latour, 2011), figurando como entidades unas, inquestionáveis e imperscrutáveis, mas que podemos e devemos abrir com o propósitode evidenciar as associações de atores que agem e fazem agir. Silva (2022) e Tarlenton Gillespie (2018b) usam o termo “opacidade algorítmica” para falar desse processo de invisibilização que, enquanto vende para o público um produto incrivelmente mágico, garante que as falhas sejam responsabilidade do próprio dispositivo ou dos usuários, nunca da plataforma.

Bom exemplo dessa controvérsia é a plataforma google photos, lançada em 2015 para, através de modelos de visão computacional3 e aprendizado de máquina4, identificar padrões em fotos, sugerindo marcações para organizar e gerar álbuns, bem como fazer composições de imagens. Em função do tamanho do banco de dados e do aprendizado do algoritmo, os resultados devem ser cada vez mais eficientes. Nesse mesmo ano, no entanto, o programador Jacky Alciné denunciou que suas fotos e de sua namorada, ambos negros, foram identificadas com a tag “gorilas”. Diversos podem ter sido os problemas associados ao algoritmo, resultando nesse viés racial: banco de dados com padrões limitados, associação racista intencional na instrução do processamento de dados ou ausência de testes. Referindo-se a tais vieses, Safya Noble (2021) defende uma análise crítica do desenvolvimento desses sistemas.

Abrir as caixas-pretas dos bancos de dados e dos algoritmos requer, assim, que nos debrucemos sobre o que sustenta essa pretensa neutralidade. Olhando mais de perto o sistema de RF, rastreando suas conexões ao modo da Teoria Ator-Rede, encontramos a transformação de um processo altamente laborioso e mediado no que Latour (2013) chama de “Duplo Clique”. Com essa expressão, ele destaca que a relação que mantemos com a tecnologia é muito próxima à experiência dos dois cliques dados no mouse do computador, que nos entrega qualquer tipo de informação de forma instantânea sem que percebamos a cadeia de referências que permite que ela exista. Opacidade e criação de caixas-pretas.

O software de RF nos entrega esse duplo clique quando desbloqueamos nossos celulares com nosso rosto ou quando uma câmera de vigilância dispara alertas indicando que "um criminoso foragido foi identificado”. Essa ilusão de instantaneidade impede de nos darmos conta que, para que resultados "automáticos" apareçam, uma série de etapas invisíveis para nós, usuários, precisam ser seguidas, sendo cada etapa vulnerável a falhas e/ou vieses. A título de exemplo, analisando as etapas de ação de um sistema de RF, encontramos:

uma imagem do rosto da pessoa é capturada a partir de uma foto ou vídeo; em seguida, o software de reconhecimento facial analisa a “geometria” do rosto, identificando fatores, como a distância entre os olhos e a distância da testa ao queixo. Assim, elabora-se uma “assinatura facial” a partir da identificação dos pontos de referência faciais. [...] o terceiro passo consiste na comparação da assinatura facial - que nada mais é que uma fórmula matemática - a um banco de dados de rostos conhecidos, pré-coletados e armazenados. Finalmente, realiza-se a etapa de determinação, em que pode ocorrer a verificação (quando se analisa uma determinada assinatura digital em comparação a uma única outra, já definida) ou identificação (quando se compara determinada assinatura digital a diversas outras constantes do banco de dados) do rosto analisado. (Oliveira, 2021, pp. 22-23)

Algumas adversidades podem ocorrer no processo de reconhecimento: luminosidade local, uso de óculos, tatuagens no rosto, cicatrizes, cor da pele (Oliveira, 2021). Não menos importante é o próprio treinamento do algoritmo para aprender o que é um rosto e como traçar as assinaturas faciais. Esse processo, sabemos, tem sido realizado através de trabalho precarizado, muitas vezes em situações análogas à escravidão, sendo também bastante afetado pela falta de diversidade nos bancos de dados (Faustino & Lippold, 2023).

Entretanto, o modo como todo esse processamento e vulnerabilidades são escondidos na caixa-preta nos conecta diretamente com outra crença acerca dos bancos de dados: eles seriam constituídos por “dados brutos”, dotados de uma espécie de naturalidade, que os faria imunes a qualquer interferência ou interpretação. No entanto, todo dado precisa ser tratado e categorizado previamente a seu armazenamento, o que se dá a partir de critérios produzidos por pessoas. Gillespie (2018a) chama esse processo de “preparação para os algoritmos”, necessária para que eles possam aprender e agir de forma automática, sem intervenção humana.

Logo, o funcionamento inteligente dos algoritmos não se faz sem a dimensão humana presente nos critérios de escolha e interpretação dos dados. Por isso inferimos que a categorização presente nos bancos de dados reflete e reproduz os padrões (desiguais) que estruturam nossa sociedade. A desigualdade “dataficada” facilita, acelera e acentua desigualdades, camuflando discriminações humanas e dificultando o enfrentamento. Mesmo com a complexificação da arquitetura dos bancos de dados, a categorização permanece uma intervenção semântica e política poderosa: quais as categorias priorizadas? o que pertence a elas? quem decide como implementá-las na prática? Cada vez que se institui uma categoria, desenha-se uma demarcação que estará na base dos algoritmos.

Isso nos leva a outro ponto acerca da neutralidade dos dados: mesmo o volume de informações extraídas sendo colossal e crescente, há certo nível de exclusão na demarcação produzida pela categorização que permanece invisível. Uma categoria não é o conjunto de todas as declarações possíveis, ela diz o que pode ser dito ou o que consegue dizer (Gillespie, 2018a). A despeito da pretensão dos dispositivos de coleta de dados em produzir uma “coleta perfeita”, o que é menos legível ou que não pode ser conhecido sobre os usuários é deixado de lado ou aproximado de forma grosseira pelos algoritmos. Segundo Balka (citado por Gillespie, 2018a), os sistemas de informação produzem inescapavelmente “corpos de sombra” ao enfatizar alguns aspectos dos sujeitos e ignorar outros. Essas entidades proliferam através dos sistemas de informação e as diferenças que separam o usuário "antecipado" do usuário "concreto" podem ser problemáticas.

Mais um ponto a ser destacado na produção de neutralidade própria às tecnologias tem a ver com sua confiabilidade, num contraponto à inescapável parcialidade das decisões humanas. As soluções que os dispositivos tecnológicos nos oferecem acenam com a promessa de maior precisão que viria corrigir qualquer viés humano. Nesse sentido, algoritmos seriam “estabilizadores de confiança”, com avaliações pretensamente justas, precisas, livres de subjetividade, erro ou tentativas de influência. No entanto, a despeito de assegurar que seus algoritmos são imparciais e objetivos, nenhum dispositivo desse tipo pode ser completamente isento de interferência humana, configurando um campo controverso, polifônico e carregado de fluidez.

Segunda Opacidade: Racismo à brasileira e produção de visibilidades

Partindo da não neutralidade da tecnologia, propomos discutir de que modo sua produção e seu uso materializam, em especial, assimetrias e vieses racistas: quais rostos serão mais "lidos", ou melhor, quais serão os rostos mais buscados. Pode parecer estranha a articulação do funcionamento da tecnologia nesses termos, mas as pessoas negras já estão acostumadas com processos semelhantes no âmbito das políticas de segurança pública que, através de uma lógica punitivista e da seletividade penal, buscam os mesmos rostos e efetuam nesses corpos a punição desejada pela sociedade: prisão ou morte. O Brasil possui a terceira maior população prisional do mundo, da qual 64% são pessoas negras. Além disso, 84% das pessoas mortas em decorrência de operações policiais são negras (Fórum Brasileiro de Segurança Pública, 2023). Não poder nomear esses dados como racismo nos leva à discussão da segunda opacidade: o mito da democracia racial no Brasil.

A igualdade jurídica estabelecida através das legislações esconde o modo como o racismo se articula. Por não ter a mesma institucionalização estadunidense e por conveniência dos grupos que dominavam o país pós-abolição, pesquisadores e intelectuais demoraram em considerar o preconceito racial presente no Brasil (Nogueira, 2007). Dada a assimilação das populações em torno do impulso pela miscigenação, o preconceito racial brasileiro se manifesta a partir da aparência, da cor, como se estivesse marcado visivelmente pela sociedade. Logo, ter aparência e modo de se relacionar mais próximo à branquitude é condição para que se consiga acessar o mundo dominado por pessoas brancas. Ainda mais se esses traços estiverem acompanhados de elevado prestígio intelectual, econômico ou político.

Essa pretensa possibilidade de o negro circular no mundo branco foi utilizada por intelectuais como Gilberto Freyre para sustentar o imaginário de um país que teria superado a questão racial, mantendo relações cordiais entre brancos e negros, apostando inclusive na miscigenação enquanto simbolo nacional. Essa imagem fez o Brasil ser reconhecido mundialmente como uma “democracia racial” apesar de, para a população negra, essa constatação não passar de um mito, pois o racismo nunca deixou de ser sentido e permanece modificando os modos de vida, hierarquizando costumes e efetuando a segregação cotidiana (Munanga, 2007).

Antes de o país apostar no ideário da miscigenação a partir de uma política assimilacionista de pessoas negras ex-escravizadas, outros intelectuais disputaram o futuro racial do país, e ainda hoje conseguimos perceber o resquício de seus pensamentos. Nina Rodrigues, médico baiano, dedicou parte considerável de sua carreira a discutir o problema do negro e sua descendência, tendo influenciado grandemente o pensamento social ao contextualizar, no Brasil, as obras de Cesare Lombroso, fundador da escola positivista de criminologia (Góes, 2015). Cesare Lombroso buscou sustentar a tese do “criminoso nato”, que apontava a causa do crime como identificada no próprio criminoso, estando essa identificação associada à ausência do desenvolvimento cerebral civilizatório completo, localizado somente no homem branco. Dessa linha de pensamento derivaram conceitos apropriados pelo direito penal até os dias atuais, como a periculosidade - o quantum alguém está propenso à criminalidade.

Os pensamentos lombrosianos entraram rapidamente em desuso no continente europeu, mas ganharam utilidade na América. Isso porque as teorias racialistas legitimaram, através da ciência, um desejado controle racial pela elite nacional sobre a massa popular negra e pobre, livre após o fim formal da escravização. Nina Rodrigues contestava o princípio de igualdade jurídica, apontando a degenerescência característica da miscigenação. O miscigenado, por ser degenerado, não teria capacidade de consciência suficiente para ser responsabilizado pelo direito penal oficial, criando-se a necessidade de outras responsabilizações penais, mais duras. Ao fornecer legitimidade científica ao controle racial, a elite nacional, através de Nina Rodrigues, “assegurou a manutenção da desigualdade racial e criminalização dos negros e seus descendentes” (Góes, 2015, p. 230).

A aposta da elite nacional pela miscigenação em detrimento de um projeto de segregação formal pode parecer benevolente, mas escondia a real intenção dessa elite: “desaparecer com o negro em 3 a 4 gerações” (Munanga 2007). O controle racial ainda era a questão para as sociedades no início do século XX e a influência do pensamento de Nina Rodrigues dentro do pensamento criminológico brasileiro garantia, ainda que de modo informal, a existência de um direito penal paralelo ao direito penal declarado. Este último seria o direito penal instituído por lei, válido para todos os cidadãos, um direito penal do fato. No entanto, as influências dos conceitos da criminologia positivista fizeram com que emergisse no cotidiano o direito penal do autor, que atua somente em determinadas áreas, sobre determinados corpos.

A existência de um direito penal do autor é sustentada, justamente, pela ideia de que “o discurso que molda as relações raciais é o mito da democracia racial. Sua construção e permanência até os dias atuais evidencia, por si, sua função estratégica, sobretudo como apaziguador das tensões étnico-raciais” (Carneiro, 2005, p. 62). As tensões não deixam de existir, mas se tornam opacas, uma vez que se nega a existência da desigualdade racial no Brasil. Assim, a própria ideia de mestiçagem que acompanha o mito se torna um projeto de embranquecimento e de hierarquização, que reafirma o corpo retinto e com traços negroides como o não-humano, animalesco e potencialmente perigoso: um corpo negro suspeito. Projeto esse que esconde também o pacto da branquitude, ao afastar o corpo branco de qualquer responsabilidade sobre essas tensões (Bento, 2022).

Nesse sentido, mais do que a materialidade do delito, está em cena a virtualidade do crime e a suspeição sobre o delinquente contra o qual se deve intervir preventivamente. Levando em consideração que as instituições brasileiras demarcaram o seu inimigo comum nas pessoas negras e em tudo que a elas se relaciona, essas ações preventivas e baseadas em suspeição servirão de legitimidade para que o racismo se reproduza na prática das instituições, principalmente (mas não só) ligadas à justiça e à segurança pública.

Segundo o Relatório do Fórum Brasileiro de Segurança Pública (Conselho Nacional de Justiça, 2018), “os operadores da justiça criminal são capazes de ‘bater o olho’ e reconhecer, na aparência e na apresentação corporal do acusado, um conjunto de informações relevantes para a sua decisão” (p. 74), o que é chamado de “tirocínio”. Seria a habilidade - adquirida pelo policial no convívio com outros policiais mais experientes e na prática de sua função - de identificar e agir sobre aquilo que Jacqueline Sinhoretto et al. (2014) chamaram de “signos da suspeição”, que frequentemente coincidem com características raciais e periféricas. É a racialização que orienta a prática do tirocínio. Como salienta Jacqueline Muniz (1999), o que está em jogo é a discricionariedade, quer dizer, cabe ao operador da justiça decidir como selecionar os suspeitos à medida que não há elementos normativos que fundamentam a suspeita. Então, quando se diz que o tirocínio é uma prática orientada pela filtragem racial dos suspeitos, afirma-se que essa discriminação racial advém do policial. Como se a instituição em si fosse neutra e todo o racismo advindo de suas práticas viesse do racismo individual. Sobre isso, Maria Schlittler (2016, p. 121) sublinha que “a corporação designa de forma velada ao agente policial o papel de desenvolver técnicas próprias [...] pelas quais a corporação não se responsabiliza, embora se aproprie dos resultados”.

Embora os dados demonstrem que as práticas do sistema de justiça e segurança pública operam uma filtragem racial, penalizando mais pessoas negras, principalmente por fazer com que elas estejam mais visíveis e suscetíveis a serem constrangidas por essas práticas, o “mito da democracia racial” acaba por escamotear o racismo, impedindo a denúncia de que há uma hierarquia racial se construindo nas práticas. O efeito de opacidade causado pelo mito é capaz de fazer com que a sociedade negue os efeitos das desigualdades e segregações sofridas pela população negra.

Reconhecimento facial: dupla opacidade operando

A técnica do reconhecimento é constantemente utilizada e sustenta certa filtragem racial. O procedimento é extremamente controverso, tendo em vista as diversas variações com que esse reconhecimento acontece, dentre as quais o reconhecimento fotográfico, que pode se apresentar de várias formas, por exemplo, a apresentação de fotos que compõem um “álbum de suspeitos” da polícia civil.

O álbum de suspeitos é composto por imagens de pessoas que passaram por inquéritos policiais, imagens retiradas de redes sociais sob a alegação de um cruzamento de dados a partir de diversas investigações realizadas pela corporação, dentre outros critérios controversos. Isso porque, por depender de constante atualização, imagens de pessoas relacionadas a inquéritos já arquivados e que tenham sido inocentadas, ou que tenham cumprido pena integralmente, muitas vezes permanecem no álbum. O reconhecimento fotográfico, apesar de controverso e questionável, ao ser aceito nas decisões no âmbito das instituições de justiça, acaba por ser legitimado e tem seu uso generalizado.

Diversos são os casos que têm o reconhecimento fotográfico como ponto questionável das condenações. Ângelo Gustavo foi condenado, tendo como única prova o reconhecimento de uma foto na rede social. Segundo o inquérito, um carro havia sido roubado por três homens, sendo encontrado dois meses depois com documentos no banco de trás. O dono dos documentos foi envolvido no inquérito como suspeito. A investigação policial buscou o nome do suspeito em uma rede social e encontrou uma foto dessa pessoa junto a Ângelo, datada de um dia depois do roubo. Isso foi o suficiente para que essa foto fosse apresentada à vítima, que reconheceu Ângelo como autor do roubo, acarretando sua prisão preventiva. Um ano após ter sido preso, Ângelo foi inocentado. Para ele, em carta escrita na prisão, o fator decisivo para o erro no reconhecimento teria sido a raça (Instituto de Defesa do Direito de Defesa, 2021).

Este caso converge com relatórios da Defensoria Pública do Estado do Rio de Janeiro sobre o reconhecimento fotográfico. Entre junho de 2019 e março de 2020, dos 47 processos que envolviam prisões de 53 pessoas, efetivadas a partir do reconhecimento fotográfico, 80% eram negros. Chama a atenção que pelo menos metade dos acusados tinha anotações anteriores, o que explica constarem nos registros fotográficos das delegacias de polícia, sendo prática comum a apresentação de fotos de pessoas acusadas de outros crimes, reforçando a estigmatização criminal.

Como apontamos, o impulsionamento de tecnologias se dá através de sua suposta confiabilidade, principalmente com o pretexto de correções do “efeito humano” nos processos. No caso do reconhecimento fotográfico, os inúmeros erros acabam por propiciar uma oportunidade para a adoção do RF, que parece afastar os vieses humanos. A neutralidade atribuída aos aparatos tecnológicos encontra justificativas de implementação, associando-se à normalização da decisão computacional à fuga da individualização da responsabilidade (Silva, 2022).

Silva (2022) avança na problematização, afirmando que as tecnologias de RF em articulação à segurança pública estão associadas também à vigilância "inteligente", própria às smart cities. Para Diogo Dal Magro (2021), o conjunto de tecnologia empregada em nome das smart cities produz um Estado de vigilância, principalmente por não conceder acesso transparente ao uso dos dados coletados por essas tecnologias, favorecendo seu uso para fins de controle social. Segundo Silva (2022), apesar de as tecnologias de RF na segurança pública já existirem há mais de 20 anos, a combinação da popularização da tecnologia de rastreio e de banco de dados biométricos, a atuação legislativa direcionada à vigilância e o lobby das empresas de tecnologias fez com que a presença dessas câmeras se normalizasse em determinados espaços.

No Rio de Janeiro, após a primeira fase de instalação de câmeras de RF ser realizada na orla de Copacabana e a segunda fase ampliada para o estádio do Maracanã e o Aeroporto Santos Dumont, a terceira fase, realizada no governo de Cláudio Castro, foi na favela do Jacarezinho, logo após a operação policial mais letal da história do estado do Rio de Janeiro. Esta instalação, em seu termo de referência de licitação, aponta como justificativa

a importância da implementação [...], não só na coibição criminal ou repreensão, mas, sobretudo em seu caráter probatório para o processo penal, produzindo provas que corroborem com a realidade e robusteçam a afirmação de inocência policial em uma possível ação judicial.” (Nunes, Silva, & Oliveira, 2022, p. 15)

O espraiamento das tecnologias de RF, inclusive em transportes públicos, diz de um controle de circulação de uma determinada parcela da população, principalmente quando o que está relacionado a esse sistema é um banco de dados ligado a imagens de suspeitos. O hábito histórico da polícia do Rio de Janeiro de barrar a chegada de pessoas pretas e periféricas à parte turística e rica da cidade, à zona sul (Nunes et al., 2022), recebe um upgrade com essa tecnologia pretensamente neutra e perigosamente falha.

Com pouquíssimas garantias de um funcionamento correto, o RF chancela abordagens, restringe e constrange corpos que, historicamente, já sofriam por serem como são e virem de onde vieram. Na primeira fase de instalação no Rio de Janeiro, foram aproximadamente 2.993.692 faces capturadas, produzindo 2.465 correlações. A partir das correlações, cabe aos operadores do videomonitoramento acionar ou não a polícia civil para maiores investigações. Após indicação da polícia civil, o grupamento militar se dirige à pessoa que teve a imagem correlacionada. Curiosamente, há dados de quantas pessoas foram apreendidas a partir da correlação, mas não de falsos positivos, apesar da indicação do poder público de que os falsos positivos e a precariedade dos bancos de dados são problemas a serem otimizados.

Uma questão política demasiadamente técnica. Uma questão técnica demasiadamente política (Latour, 2012). Abrir a caixa-preta do RF lança luz sobre a dupla opacidade que a um só tempo camufla e perpetua o racismo pelos vínculos dessa rede sociotécnica.

Reflexões finais: Entre o banimento e a cosmopolítica

Diante desse cenário, a resposta que costumeiramente se coloca é que o RF ainda está em desenvolvimento, surgindo proposições na direção da diversificação, tanto nos bancos de dados como na construção dessas tecnologias. Acredita-se que, com tal aprimoramento, será possível solucionar os erros de identificação, as injustiças na incriminação e a ineficiência na prevenção. A otimização da tecnologia promete trazer a reboque a otimização da punição: punir certo para punir mais. No entanto, essa resposta apressada ignora todas as marcas do punitivismo e do racismo institucional e estrutural que possibilitam a existência de um dispositivo como esse. Nela, não há encarceramento em massa de pessoas negras, nem bancos de dados e algoritmos racialmente implicados. Não há nem mesmo o reconhecimento das desigualdades e segregações que operam através desses dispositivos. Assume-se que o RF é neutro desde sua produção até seus efeitos no mundo e que a resposta às falhas está no desenvolvimento de mais tecnologia, tão neutra quanto qualquer outra.

Como esperamos ter evidenciado ao longo do texto, essa pretensa neutralidade não só não existe, como a recusa em negá-la amplia os efeitos das violências que advêm da dupla opacidade que opera a partir do RF. Ao afirmar-se neutra, a tecnologia desimplica-se dos processos que a constituem, nega os efeitos do racismo e assume para si a tarefa de tornar visível os corpos suspeitos e de restaurar a paz desse mundo que partilhamos.

No entanto, se, ao contrário, recusarmos encerrar a discussão tão rapidamente, sustentando um pouco mais as incertezas e abrindo espaço para que mais vozes contem e as controvérsias proliferem, uma crise se instaura, rachando esse mundo comum forçadamente pacificado, silenciado e invisibilizado. Seguimos aqui a pista latouriana de que a polifonia própria às controvérsias aponta para um outro mundo possível (Latour, 2012).

É nessa direção que nos aliamos a Isabelle Stengers (2018) e sua proposição cosmopolítica, que defende a necessidade de desacelerar as conclusões habituais e suspender a pretensão de verdade universal e incontestável, pois só assim é possível evocar diferentemente os problemas que nos mobilizam. Como apontam Stengers (1997, 2018) e Latour (2018, 2020), acompanhar as práticas se fazendo permite ver que não existe mundo comum a priori, nem um cosmos que precisa reencontrar sua essência pacífica e consensual. Nos termos da cosmopolítica, o mundo comum precisa ser fabricado. Mais importante ainda que a tarefa de compor um mundo comum é fazê-lo habitado por um cosmos polifônico, ruidoso e diversamente constituído. A proposição cosmopolítica recusa a unificação hegemônica e aposta na possibilidade de compor um mundo comum justamente porque heterogêneo e múltiplo, feito dos muitos outros e seus mundos que constantemente são deixados de fora, mas que insistem e se recusam a ser representados por uma voz unívoca.

Explicitar a não-neutralidade do RF é condição para que isso seja possível. Mesmo no que parece estável e sólido nos modos de funcionamento dos dispositivos tecnológicos, é necessário que sejamos capazes de equivocar e negociar na tensão do contraditório, o que, por sua vez, só pode ser feito no meio da polifonia, em meio a heterogeneidade. Como diz Stengers, é preciso “nos estranharmos de nós mesmos, para que os outros deixem de parecer a nossos olhos exóticos” (Stengers, 2018, p. 446).

Assumir, por exemplo, que um dispositivo técnico pode ser capaz de tratar todos os rostos do mesmo modo não é apenas uma limitação técnica, mas se baseia na ideia de que somos todos iguais e que podemos prescindir de nos tratarmos diferentemente. Abrir a caixa-preta do dispositivo faz ver qual rosto é o modelo e qual é o suspeito. Só é possível fabricar um mundo comum a partir da “produção pública, coletiva, de saberes em torno de situações que nenhuma expertise particular pode ser suficiente para definir, e que exigem a presença legítima ativa, objetora e propositiva, de todos os ‘implicados’”. (Stengers, 2018, p. 451). O perigo desses dispositivos sociotécnicos é produzir um mundo cada vez menos heterogêneo - e na homogeneidade do mundo serão os grupos minorizados que ficarão do lado de fora. Uma tecnologia como o RF impede a polifonia e participa do aniquilamento de certos grupos, aniquilando junto qualquer tentativa de mundo comum heterogêneo.

Nossa reflexão alinha-se ao chamado campo da Psicologia Crítica, entendido como ampla frente de luta, onde crítico significa tanto estar em crise como por em crise (Spink & Spink, 2014). Os movimentos que advogam pelo banimento dos dispositivos de RF precisam ser visibilizados e fazemos coro à esta luta legítima (ver nota 1). Nosso propósito foi colocar em cena a dimensão política e ética inerente a essas tecnologias, colocar luz sobre esse processo que reforça o punitivismo e o racismo sob a pretensão de uma neutralidade técnica. O prefixo “cosmos” da proposição cosmopolítica remete ao “nós” diverso e polifônico que constitui a política e as articulações de que podemos vir a ser capazes de fazer. Desse modo, ao tomar as questões em torno do RF como “nossas”, fazendo ressoar também vozes que não são hegemonicamente chamadas à arena política, desaceleramos a urgência da pacificação e finalização do debate e nos perguntamos: quais problemas seremos capazes de formular ao abrir espaço para que divergências proliferem e nos impeçam de “decidir por” e passemos a “decidir com” aqueles que essas práticas “reconhecem” e invisibilizam?

Referências

  • Bento, Cida (2022). O pacto da branquitude Companhia das Letras.
  • Buolamwini, Joy & Gebru, Timnit (2018, February). Gender shades: Intersectional accuracy disparities in commercial gender classification. In Conference on fairness, accountability and transparency (pp. 1-15). Proceedings of Machine Learning Research. http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf
    » http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf
  • Conselho Nacional de Justiça (2018). Relatório Analítico Propositivo: Justiça Pesquisa Direitos e Garantias Fundamentais Audiência de Custódia, Prisão Provisória e Medidas Cautelares: Obstáculos Institucionais e Ideológicos à Efetivação da Liberdade como Regra. Distrito Federal. Poder Judiciário.
  • Carneiro, Aparecida Sueli (2005). A construção do outro como não-ser como fundamento do ser [Tese de Doutorado em Educação, Universidade de São Paulo, São Paulo/SP].
  • Faustino, Deivison & Lippold, Walter (2023). Colonialismo Digital por uma Crítica Hacker-fanoniana Boitempo.
  • Fórum Brasileiro de Segurança Pública (2023). 17º Anuário Brasileiro de Segurança Pública Autor.
  • Gillespie, Tarleton (2018a). A Relevância dos algoritmos. Parágrafo, 6(1), 95-121.
  • Gillespie, Tarleton (2018b). Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media Yale University Press.
  • Góes, Luciano (2015). A “tradução” do paradigma etiológico de criminologia no Brasil: Um diálogo entre Cesare Lombroso e Nina Rodrigues da perspectiva Centro-Margem [Dissertação de Mestrado em Direito, Universidade Federal de Santa Catarina, Florianópolis/ SC].
  • Instituto de Direito de Defesa de Direito (2021, 21 de fevereiro). IDDD questiona condenação baseada exclusivamente em reconhecimento fotográfico. https://iddd.org.br/iddd-questiona-condenacao-baseada-exclusivamente-em-reconhecimento-fotografico/
    » https://iddd.org.br/iddd-questiona-condenacao-baseada-exclusivamente-em-reconhecimento-fotografico/
  • Latour, Bruno (2011). Ciência em ação: como seguir cientistas e engenheiros sociedade afora Unesp.
  • Latour, Bruno (2012). Reagregando o social Editora 34.
  • Latour, Bruno (2013). Investigación sobre los modos de existência: uma antropologia de los modernos Paidós.
  • Latour, Bruno (2018). Qual cosmos, quais cosmopolíticas? Comentário sobre as propostas de paz de Ulrich Beck. Revista Do Instituto De Estudos Brasileiros, 69, 427-441.
  • Latour, Bruno (2020). Onde aterrar? Como se orientar politicamente no antropoceno Bazar do Tempo.
  • Law, John (1992). Notes on the theory of the actor-network: Ordering, strategy, and heterogeneity. Systems Practice, 5, 379-393. https://link.springer.com/article/10.1007/BF01059830
    » https://link.springer.com/article/10.1007/BF01059830
  • Magro, Diogo Dal (2021). O reconhecimento facial nas smart cities e a garantia dos direitos à privacidade e à proteção de dados pessoais. Revista de Direito Internacional, 18(2), 301-329.
  • Munanga, Kabengele (2007). Rediscutindo a mestiçagem no Brasil: identidade nacional versus identidade negra (3a ed.). Autêntica.
  • Muniz, Jacqueline de Oliveira (1999). Ser policial é, sobretudo, uma razão de ser: Cultura e cotidiano da Polícia Militar do Estado do Rio de Janeiro [Tese de Doutorado em Ciência Politíca, Instituto Universitário de Pesquisas do Rio de Janeiro, Sociedade Brasileira de Instrução, Rio de Janeiro/RJ].
  • Noble, Safyia Umoja (2021). Algoritmos da Opressão: como o Google fomenta e lucra com o racismo Rua do Sabão.
  • Nogueira, Oracy (2007). Preconceito racial de marca e preconceito racial de origem: sugestão de um quadro de referência para a interpretação do material sobre relações raciais no Brasil. Tempo Social, 19(1), 287-308. https://doi.org/10.1590/S0103-20702007000100015
    » https://doi.org/10.1590/S0103-20702007000100015
  • Nunes, Pablo, Silva, Mariah Rafaela, & Oliveira, Samuel (2022). Um Rio de câmeras com olhos seletivos: uso do reconhecimento facial pela polícia fluminense CESeC.
  • Oliveira, Samuel (2021). Sorria, você está sendo filmado! repensando direitos na era do reconhecimento facial Thomson Reuters Brasil.
  • Rodotà, Stefano (2004). Transformações do corpo. Revista trimestral de direito civil, 19(5), 91-107.
  • Sadin, Éric (2015). La Vie Algorithmique: Critique de la raison numérique L’Échappée.
  • Schlittler, Maria Carolina de Camargo (2016). Matar muito, prender mal: a produção da desigualdade racial como efeito do policiamento ostensivo militarizado em SP [Tese de Doutorado em Educação e Ciências Humanas, Universidade Federal de São Carlos, São Carlos/SP].
  • Silva, Tarcízio (2022). Racismo algorítmico: inteligência artificial e discriminação nas redes digitais Sesc/SP.
  • Sinhoretto, J., Batitucci, E., Mota, F. R., Schlittler, M. C., Silvestre, G., Morais, D. S., Souza, L. G. et al. (2014). A filtragem racial na seleção policial de suspeitos: segurança pública e relações raciais. Segurança pública e direitos humanos: temas transversais, 5, 121-160.
  • Spink, Mary Jane Paris & Spink, Peter Kevin. (2014). A psicologia social na atualidade. In Ana Maria Jacó-Vilela, Arthur Arruda Leal Ferreira, & Francisco Teixeira Portugal (Orgs.), História da Psicologia, rumos e percursos (pp. 679-700). Nau.
  • Stengers, Isabelle (2018). A proposição cosmopolítica. Revista do Instituto de Estudos Brasileiros, 69, 442-464.
  • Stengers, Isabelle (1997). Cosmopolitiques I e II Paris: La Découverte.

Notas

  • 1
    #TireMeuRostoDaSuaMira, no Brasil; #ReclaimYourFace, na Europa; #NoNosVeanLaCara, no México.
  • 2
    “A expressão caixa-preta é usada em cibernética sempre que uma máquina ou um conjunto de comandos se revela complexo demais. Em seu lugar, é desenhada uma caixinha preta, a respeito da qual não é preciso saber nada, senão o que nela entra e o que dela sai” (Latour, 2011, p. 4).
  • 3
    Refere-se à coleta, análise e síntese de dados visuais através de computadores, com objetivos diversos como identificação de rostos e biometria, análise de representações de objetos, entidades, conceitos e contextos em imagens, entre outros (Wang, Zhang, & Martin, 2015, citados por Silva, 2022).
  • 4
    Campo da inteligência artificial restrita que trata do reconhecimento de padrões através de uma base de dados e posterior aplicação do aprendizado no reconhecimento das variáveis em outras unidades ou conjuntos de dados (Silva, 2022).

Notas

  • Financiamento
    Bolsas de pós graduação: Doutorado CNPq - LGMS Mestrado CAPES - ABC.

Datas de Publicação

  • Publicação nesta coleção
    30 Out 2023
  • Data do Fascículo
    2023

Histórico

  • Recebido
    30 Jul 2023
  • Revisado
    23 Set 2023
  • Aceito
    26 Set 2023
location_on
Associação Brasileira de Psicologia Social Programa de Pós-graduação em Psicologia, Universidade Federal de Pernambuco, Centro de Filosofia e Ciências Humanas (CFCH), Av. da Arquitetura S/N - 7º Andar - Cidade Universitária, Recife - PE - CEP: 50740-550 - Belo Horizonte - MG - Brazil
E-mail: revistapsisoc@gmail.com
rss_feed Acompanhe os números deste periódico no seu leitor de RSS
Acessibilidade / Reportar erro