Pesquisadores estão debatendo a mudança nos métodos de busca online. O tradicional “modelo Google”, baseado em palavras-chave e links, está sendo substituído pelo “modelo ChatGPT”, em que ferramentas como ChatGPT, Bing Copilot e Gemini fornecem respostas diretas em texto, seguidas de links para fontes. Essa transformação continua a evoluir.
Em dezembro de 2024, o Google lançou o “Deep Research” no Gemini, uma IA generativa capaz de realizar buscas profundas e criar relatórios detalhados. Em fevereiro de 2025, a OpenAI introduziu uma função semelhante no ChatGPT, que gera pesquisas detalhadas, incluindo conteúdos acadêmicos, e produz relatórios robustos com base nas fontes consultadas.
IA em trabalhos acadêmicos
Diversas empresas também adotaram abordagens semelhantes, lançando soluções que, embora com grande potencial, nem sempre atendem às expectativas. Essas ferramentas novas frequentemente superestimam sua capacidade de realizar pesquisas acadêmicas, mas falham ao fornecer o contexto necessário, apresentam dados desatualizados e erram na seleção de fontes, prejudicando assim a qualidade dos resultados.
Essas ferramentas, apesar de inovadoras, ainda apresentam limitações sérias. Dentre elas, destacam-se
- Opacidade nos processos
- Risco de “alucinações” (respostas linguisticamente plausíveis, mas factualmente imprecisas)
- Falta de replicabilidade dos resultados
- Links fornecidos não são suficientes para embasar revisões rigorosas, como as sistemáticas ou integrativas
- Necessidade de continuar utilizando métodos tradicionais de revisão bibliográfica
Ademais, a crescente utilização de IA geradora de conteúdo pode levantar questões sobre a credibilidade das informações. Relatórios acadêmicos criados por essas ferramentas podem ser vistos como verdades incontestáveis, o que representa um desafio para a literacia digital e a compreensão das limitações e vieses dessas tecnologias, tornando essencial adotar uma postura crítica ao fazer uso desses recursos.
Diretrizes de uso
Instituições de ensino no Brasil, como a UFMG, estão criando diretrizes para o uso de IA generativa, como o ChatGPT, em trabalhos acadêmicos. As recomendações incluem transparência no uso dessas tecnologias, com foco em evitar plágio, desinformação e vieses discriminatórios. Na UFMG, as orientações sugerem que:
- Programas de graduação e pós-graduação devem definir claramente as regras para o uso de IA e promover discussões sobre seu impacto nas salas de aula.
- Na pesquisa, é necessário identificar o uso de IA em artigos e relatórios, garantindo avaliação cuidadosa dos resultados acadêmicos.
- Na extensão, recomenda-se projetos de capacitação e letramento em IA, com foco em escolas públicas e cursos online.
- Para a administração, o uso de IA deve seguir normas de proteção de dados, com supervisão humana nas atividades assistidas por IA.