Tópicos em alta: eleições 2022 / coronavírus / vacina / polícia / obituário

Robô chinês ou juiz faminto?

c

Por Carlos Eduardo Paletta Guedes

12/01/2022 às 07h00 - Atualizada 11/01/2022 às 15h56

No final de 2021, a imprensa internacional noticiou que a China desenvolveu um robô promotor de justiça que, segundo os cientistas do projeto, teria 97% de precisão ao acusar infratores da lei. “Treinado” por cinco anos e “alimentado” por 17 mil casos, ele poderia aliviar o volume de trabalho dos promotores em crimes comuns de menor a médio potencial ofensivo.

Notícias assim vêm se tornando cada vez mais comuns no mundo do Direito, que se entusiasma com o poder da tecnologia e sua promessa de diminuir o imenso número de processos nos tribunais. Da minha parte, a primeira reação é preocupar-me com os 3% de erro. Mas, então, lembro daquela pesquisa de uma década atrás, que examinou decisões de juízes israelenses após audiências de liberdade condicional em casos criminais. Segundo a pesquisa, os juízes proferiram decisões mais brandas no início do dia e imediatamente após um intervalo (para almoço, por exemplo).

Quando famintos e cansados, eram mais rigorosos. Jonathan Levav, professor da Universidade de Columbia, coautor do estudo, disse: “Você tem duas a seis vezes mais probabilidade de ser libertado se for um dos três primeiros presos julgados em comparação com os três últimos”. O que isso nos diz? É preferível um robô chinês a um juiz com fome?

O conteúdo continua após o anúncio

A questão nos leva a uma discussão mais ética que jurídica. O futuro da humanidade depende de como vamos gerenciar a tecnologia que nos cerca. Melhores recursos computacionais certamente podem facilitar nossas vidas, mas, na medida em que a inteligência artificial aprende sozinha a tomar suas decisões (“machine learning”), temos que pensar bem no tipo de máquinas que estamos criando. Em artigo na “Prospect”, Phillip Ball escreve que, no final das contas, não sabemos o que está acontecendo naquela caixa preta. Os princípios do “machine learning” podem ser claros, mas o “raciocínio” pelo qual o algoritmo chega às suas conclusões após o treinamento não é. Ocasionalmente, essas máquinas darão respostas que um ser humano jamais daria – como ocorre, por exemplo, quando o Facebook entende que a nudez de um quadro renascentista é pornografia, censurando-o. Ainda segundo Ball, o que falta a esse tipo de tecnologia é o senso comum, algo que não sabemos expressar em regras formais que podem ser programadas e ensinadas a um computador. O computador pode até ser capaz de fazer algumas coisas melhor do que nós, mas não pensar da mesma maneira que nós. Falta bom senso à máquina. E aos humanos?

Se confiarmos no filme da Netflix, “Não olhe para cima”, bom senso é material escasso entre nós. Tamanha é a idiotia dos personagens que me vi torcendo para que o cometa destruísse a Terra de uma vez. Desde o cientista deslumbrado e inseguro até empresários gananciosos e políticos venais – sem falar na imprensa infantiloide e na cantora babaca – só nos restaria entregar os pontos como projeto de humanidade. Se tivermos de confiar em gente assim para criar as máquinas que dominarão o amanhã, acabaremos tornando real outra ficção científica: o Exterminador do Futuro.

Melhor torcer para que a realidade não imite a ficção e que sejamos melhores ao inventar nosso futuro. Uma boa pista foi dada por Simone Weil, quando ela disse que “infelizes que somos, confundimos a fabricação de um piano com a composição de uma sonata”. Robôs podem até ser bem fabricados, treinados e alimentados, mas falta-lhes o senso de Justiça. Entre o piano e a sonata, entre o algoritmo e a justiça, há a distância entre a técnica e a virtude, entre meios e fins. São universos distintos. Por isso, no dilema entre o robô farto e o juiz faminto, ainda prefiro o erro humano à frieza da máquina. Pois só o “homo sapiens” pode entender as injustiças que ferem sua humanidade, sem jamais esquecer daqueles que mais importam: os que têm fome e sede de Justiça.

Carlos Eduardo Paletta Guedes

Carlos Eduardo Paletta Guedes

Os comentários não representam a opinião do jornal; a responsabilidade pelo seu conteúdo é exclusiva dos autores das mensagens. A Tribuna reserva-se o direito de excluir postagens que contenham insultos e ameaças a seus jornalistas, bem como xingamentos, injúrias e agressões a terceiros. Mensagens de conteúdo homofóbico, racista, xenofóbico e que propaguem discursos de ódio e/ou informações falsas também não serão toleradas. A infração reiterada da política de comunicação da Tribuna levará à exclusão permanente do responsável pelos comentários.



Leia também

Desenvolvido por Grupo Emedia