Um grupo de pesquisadores conseguiu rodar um avançado modelo de linguagem baseado em IA, criado com o LLaMA, em um computador com Windows 98 e um processador Pentium II, que possui apenas 128 MB de RAM. Usando um Elonex Pentium II de 350 MHz, o experimento demonstrou que é possível executar modelos de IA em sistemas com capacidade limitada.
Graças ao código desenvolvido por Andrej Karpathy, a máquina conseguiu gerar histórias consistentes de forma rápida e local. Os resultados indicaram um desempenho de 39,31 tokens por segundo em um modelo com 260.000 parâmetros.
IA em pouco espaço
O estudo foi conduzido pela EXO Labs, uma empresa dedicada a tornar a inteligência artificial mais acessível. A EXO Labs está trabalhando no BitNet, uma arquitetura baseada em transformadores com pesos ternários, que possibilita uma redução significativa no tamanho dos modelos de IA.
Com o BitNet, é possível armazenar modelos de IA com até 7 bilhões de parâmetros em apenas 1,38 GB, tornando a tecnologia compatível com hardwares mais acessíveis. Além disso, esse modelo dispensa a necessidade de placas de vídeo caras, otimizando o desempenho da IA em CPUs tradicionais.
Revolução no armazenamento de dados
A rápida adoção de IA e aprendizado de máquina está transformando o armazenamento de dados em 2025, trazendo melhorias em várias áreas, como:
- Armazenamento em Níveis: Automação na alocação inteligente de dados, adaptando-se às mudanças e otimizando custos.
- Classificação e Rotulagem: Organização automatizada de grandes volumes de dados, facilitando a busca e o gerenciamento.
- Segurança: Detecção de ameaças e otimização da proteção dos dados.
- Deduplicação e Compressão: Identificação de dados redundantes e compressão para economizar espaço.
- Manutenção Preditiva: Previsão e prevenção de falhas, minimizando paradas.
- Análise de TCO: Cálculo de custos totais de armazenamento, otimizando recursos.
- Gerenciamento de Recursos: Melhoria do uso de armazenamento e computação, aumentando a eficiência e o desempenho.