llamp
1.0.0
提示
TL; dr:llamp是一種多式聯運檢索生成(RAG)的層次反應劑,可以動態地與材料項目遞歸相互作用,以在高保真材料信息學上接地LLM。
該存儲庫伴隨著我們的論文LLAMP:大型語言模型,可為高保真材料知識檢索和蒸餾而做出強大的功能。我們的代碼庫建立在蘭班基上,旨在模塊化和擴展,可用於復制論文中的實驗以及開發新的實驗。
LLAMP還是大型語言模型材料項目的同義。它使LLM具有大規模計算材料數據庫,以減少材料信息學幻覺的可能性。
git clone https://github.com/chiang-yuan/llamp.git
cd llamp/api
pip install -e .安裝後,請查看COLAB筆記本聊天或experiments中的筆記本。
您可能需要安裝其他軟件包來支持原子模擬:
pip install ase, atomate2, jobflow, mace-torchdocker-compose up --build我們了解某個時候很難瀏覽材料項目數據庫!我們希望每個人都能夠通過對話AI訪問材料信息學。我們正在尋找貢獻者,以幫助我們構建一個更強大且用戶友好的LLAMP,以支持更多的MP API端點或外部數據存儲和代理。
要引發到LLAMP,請按照以下步驟操作:
cp .env.example .env.localdocker-compose up如果您在研究中使用LLAMP,我們的代碼和數據,請引用我們的論文:
@article { chiang2024llamp ,
title = { LLaMP: Large Language Model Made Powerful for High-fidelity Materials Knowledge Retrieval and Distillation } ,
author = { Chiang, Yuan and Chou, Chia-Hong and Riebesell, Janosh } ,
journal = { arXiv preprint arXiv:2401.17244 } ,
year = { 2024 }
}我們感謝Matthew McDermott(@mattmcdermott),喬丹·伯克利(UC Berkeley)的材料科學與工程學中的喬丹·伯恩斯(Jordan Burns)的寶貴反饋和建議。我們還要感謝材料項目團隊的支持,並提供了這項工作中使用的數據。我們還要感謝Karlo Berket博士(@kbuma)和Anubhav Jain博士(@Computron)的建議和指導。