🧠 Como podemos equipar os LLMs com memória que lhes permita aprender continuamente coisas novas? Em nosso novo artigo com @AIatMeta, mostramos como o ajuste fino das camadas de memória permite atualizações direcionadas para aprendizado contínuo, com interferência mínima no conhecimento existente. Enquanto o ajuste fino completo e o LoRA apresentam quedas drásticas no desempenho de tarefas retidas (📉-89% FT, -71% LoRA em tarefas de aprendizado de fatos), as camadas de memória aprendem a mesma quantidade com muito menos esquecimento (-11%). 🧵: