Vídeos gerados por inteligência artificial com nível ultrarrealista vêm gerando preocupação, pois fica cada vez mais difícil distinguir entre imagens reais e fabricadas. Ferramentas recentes, como o Veo 3, do Google, têm difundido na internet animações que capturam emoções, movimentos e expressões faciais com alta precisão.
Esse avanço tecnológico traz consigo riscos consideráveis, incluindo a propagação de desinformação, manipulação da opinião pública e golpes, principalmente através de deepfakes que criam discursos ou eventos fictícios. Embora algumas plataformas adotem medidas para impedir o uso indevido da imagem de figuras públicas, essas proteções nem sempre são eficazes, facilitando o uso indevido dessas tecnologias.
Vídeos por IA
O avanço da IA generativa desafia não só a tecnologia, mas também a confiança social e política nas imagens, corroendo sua credibilidade e facilitando a propagação de narrativas falsas. No Brasil, a ampla adoção dessas ferramentas por criadores e usuários digitais aumenta o risco de manipulação fraudulenta de vozes, rostos e cenas.
Vídeos falsos causam danos duradouros à reputação, mesmo quando desmentidos, enquanto o controle dessas tecnologias aprofunda desigualdades e favorece vantagens injustas em mercados e debates públicos. Entre as principais ferramentas de vídeo com IA generativa estão:
- Visual Electric: focado em design e publicidade, com alta qualidade estética.
- Kling V2.1: destaca-se pela fluidez e movimentos naturais.
- Veo 3: conhecido pela sincronização labial precisa e realismo sonoro.
- Flora: permite criar fluxos multimídia personalizados em uma interface intuitiva.
- Sora: gera cenas complexas com múltiplos personagens e alta fidelidade visual.
Ações de regulação
Nesse contexto, o Marco Legal da IA está em análise no Congresso Nacional, propondo diretrizes para garantir um uso ético, transparente e que evite discriminação por algoritmos. Uma medida crucial é que as empresas deixem claro ao público quando um conteúdo foi produzido por inteligência artificial, algo que hoje ainda não é plenamente perceptível.
Empresas líderes como Google e OpenAI destacam seu compromisso em democratizar o uso criativo da IA, ao mesmo tempo em que trabalham para coibir usos indevidos. Eles enfatizam a importância de uma atuação conjunta entre governo, setor privado e sociedade para estabelecer normas que assegurem o uso responsável dessas tecnologias.