O uso de tecnologias baseadas em inteligência artificial (IA) está transformando rapidamente a maneira como crimes digitais são cometidos, trazendo à tona um novo e preocupante fenômeno: o deepfake.
Este termo refere-se à manipulação digital de vídeos e áudios, criando representações falsificadas de pessoas, sejam elas públicas ou privadas. Embora a IA tenha um imenso potencial para benefícios, seu uso indevido tem gerado uma série de consequências negativas, especialmente no campo da fraude e do crime cibernético.
As figuras públicas, como Neymar, Ana Maria Braga e Drauzio Varella, são apenas algumas das vítimas que tiveram suas imagens e vozes utilizadas para enganar o público e aplicar golpes.
Crescimento dos crimes digitais facilitados por IA
A ascensão das ferramentas de IA tem sido acompanhada por um aumento alarmante de crimes digitais. De acordo com a consultoria Gartner, estima-se que, até 2027, as ferramentas baseadas em IA sejam responsáveis por 17% dos crimes cibernéticos.
Esse dado indica a velocidade com que a IA está se tornando uma ferramenta importante para fraudes financeiras, falsificação de documentos, invasões cibernéticas e, mais notavelmente, na criação de deepfakes.
Esses conteúdos manipulados digitalmente, em que imagens e sons são alterados para criar situações ou declarações falsas, podem enganar até os observadores mais atentos. As vítimas dessas fraudes muitas vezes têm suas imagens associadas a situações prejudiciais, como golpes financeiros ou declarações fictícias que podem afetar sua reputação.
Deepfakes
Entre as vítimas notáveis dessa nova onda de crimes estão celebridades como Paolla Oliveira, William Bonner, Neymar, Ana Maria Braga, Eliana e Drauzio Varella. Esses nomes são frequentemente alvo de deepfakes, onde suas imagens e vozes são distorcidas e utilizadas para criar narrativas falsas.
Muitas vezes, o objetivo é enganar o público e aplicar golpes financeiros, aproveitando a confiança que as pessoas depositam nessas figuras públicas.
Um caso é o de Drauzio Varella, que tem buscado a Justiça para remover conteúdos falsos que utilizam sua imagem sem autorização. O médico, conhecido pelo seu trabalho humanitário, é uma das muitas vítimas que enfrentam as consequências dessa nova realidade.
Além do dano à imagem, esses deepfakes representam uma violação de direitos de personalidade, colocando em risco a integridade das pessoas e gerando prejuízos irreparáveis.
A falta de regulação e os desafios jurídicos
Apesar da gravidade do problema, o Brasil ainda não possui uma legislação específica e abrangente sobre o uso de inteligência artificial, especialmente no contexto dos deepfakes.
Embora existam algumas normas, como a Lei Geral de Proteção de Dados (LGPD) e a Lei Carolina Dieckmann, que tratam de partes do problema, ainda há um vácuo jurídico. O Projeto de Lei 2338/2023, que está em tramitação no Congresso Nacional, visa regulamentar o uso da IA, mas, até o momento, o Brasil enfrenta uma insegurança jurídica quando se trata da responsabilização dos envolvidos nesse tipo de crime.
A falta de um marco regulatório adequado cria um cenário em que vítimas de deepfakes se veem desamparadas, sem meios claros de buscar justiça ou reparar os danos. Além disso, a responsabilização dos criadores dessas fraudes é um grande desafio.
Como a IA não possui personalidade jurídica, a responsabilidade recai sobre os desenvolvedores da tecnologia, as empresas que a utilizam ou, em alguns casos, os próprios usuários.
Desafios na investigação
Investigar crimes digitais, especialmente os relacionados ao deepfake, envolve desafios técnicos e jurídicos significativos. A apuração desses casos exige conhecimento especializado, tanto na área de tecnologia quanto no campo jurídico.
A coleta de provas digitais é um processo complicado, que exige uma compreensão profunda dos sistemas de IA e das técnicas de manipulação de dados. Além disso, a velocidade com que a tecnologia evolui torna a tarefa de rastrear os responsáveis ainda mais difícil.
Como os sistemas de IA são capazes de criar deepfakes com um alto nível de realismo, é crucial que as autoridades desenvolvam mecanismos mais sofisticados para rastrear e identificar os culpados. Isso pode incluir a utilização de algoritmos de inteligência artificial para detectar inconsistências em vídeos e áudios, como a análise de padrões faciais ou vocais.
Somente com uma regulamentação adequada, a colaboração entre diferentes setores e o desenvolvimento de tecnologias de prevenção será possível mitigar os impactos negativos dessa nova forma de crime digital.