Não, não me enganei a escrever, a RRAM é de facto uma nova tecnologia com o potencial de mudar a forma como a IA funciona localmente e em gigantescos servidores. De facto, é uma tecnologia que anda há anos a prometer revolucionar o mundo da memória. Mas, claro há anos que falha em cumprir.
O que é afinal a RRAM?
RRAM, ou Resistive RAM, é uma tecnologia baseada no conceito de memristor.
Em teoria, consegue guardar dados mesmo sem energia, como uma memória não volátil, mas com características que a tornam interessante para novas arquiteturas de computação. O problema é que esta promessa já tem mais de uma década. A HP mostrou protótipos há anos. Startups apareceram e desapareceram.
Mas, a tecnologia nunca chegou verdadeiramente ao mercado de consumo.
Resolver o famoso “memory wall”
O foco agora é outro. Em vez de competir diretamente com DRAM ou NAND, os investigadores querem usar a RRAM para atacar o chamado “memory wall”.
Em termos simples, os processadores evoluiram muito mais depressa do que a memória. O resultado é um gargalo constante entre CPU e RAM. Assim, se conseguirmos processar dados dentro da própria memória, esse problema pode ser atenuado.
É aqui que entram as redes neuronais.
A ideia é executar modelos de IA diretamente nos circuitos de memória não volátil. Sem necessidade de enviar dados para o processador. Sem dependência da cloud. Com consumo energético muito mais baixo.
Empilhar memória para correr IA
A equipa da UCSD criou uma estrutura 3D com oito camadas de RRAM empilhadas, algo a que chamam “bulk RRAM”.
Cada célula consegue representar até 64 níveis diferentes de resistência, o que permite trabalhar com valores analógicos úteis para redes neuronais.
Nos testes, conseguiram correr um algoritmo de aprendizagem contínua para classificar dados de um sensor vestível. O sistema atingiu cerca de 90% de precisão, aproximando-se do desempenho de redes neuronais digitais tradicionais.
Nada mau para algo que está longe de estar pronto para produção em massa.
Ainda não é a revolução?
Convém manter os pés na terra.
Isto não significa que vamos ter chatbots ou modelos de linguagem gigantes a correr numa memória experimental amanhã. A tecnologia ainda enfrenta problemas sérios de fiabilidade, retenção de dados e estabilidade térmica.
Os investigadores estão agora focados em melhorar materiais e otimizar o comportamento da memória a temperaturas mais elevadas.
Ou seja, ainda estamos na fase de laboratório. Faltam anos para que isto dê um produto a sério.
Então vale a pena?
A ideia faz sentido.
Se a IA puder correr diretamente na memória, podemos ter dispositivos locais mais inteligentes, menos dependentes da cloud, com menor latência e melhor eficiência energética. Até aqui, este tipo de memória prometeu mas nunca entregou. Mas, agora que o investimento na IA é um completo absurdo, talvez se encontre dinheiro e tempo suficiente para levar a RRAM a bom porto.







