深入探討『HippoRAG』——一種受長期人類記憶啟發且性能更為優越的框架,其速度更快、成本更低,超越了當前最先進的RAG方法。
人類大腦儲存著大量的知識以在環境中生存。 新的經驗不斷更新這些知識,同時不會失去先前的記憶。 儘管大型語言模型(LLM)表現出強大的智能,但缺少這種可以持續更新的長期記憶。 研究人員已開發多種方法來更新LLM的記憶,如微調、知識編輯以及目前流行的檢索增強生成(RAG),但這些方法仍未完美。 有人可能會說,人腦是在數百萬年的進化中達到這個境界的。反觀訓練一個高效能的LLM僅需幾個月的時間。 然而,我們並沒有百萬年的時間來等待這種魔法的發生。 那麼我們為何不借用並應用這些生物學見解到我們當前的LLM中呢? 一篇最近在ArXiv上的預印本研究正是如此探討的。