llamp
1.0.0
提示
TL; dr:llamp是一种多式联运检索生成(RAG)的层次反应剂,可以动态地与材料项目递归相互作用,以在高保真材料信息学上接地LLM。
该存储库伴随着我们的论文LLAMP:大型语言模型,可为高保真材料知识检索和蒸馏而做出强大的功能。我们的代码库建立在兰班基上,旨在模块化和扩展,可用于复制论文中的实验以及开发新的实验。
LLAMP还是大型语言模型材料项目的同义。它使LLM具有大规模计算材料数据库,以减少材料信息学幻觉的可能性。
git clone https://github.com/chiang-yuan/llamp.git
cd llamp/api
pip install -e .安装后,请查看COLAB笔记本聊天或experiments中的笔记本。
您可能需要安装其他软件包来支持原子模拟:
pip install ase, atomate2, jobflow, mace-torchdocker-compose up --build我们了解某个时候很难浏览材料项目数据库!我们希望每个人都能够通过对话AI访问材料信息学。我们正在寻找贡献者,以帮助我们构建一个更强大且用户友好的LLAMP,以支持更多的MP API端点或外部数据存储和代理。
要引发到LLAMP,请按照以下步骤操作:
cp .env.example .env.localdocker-compose up如果您在研究中使用LLAMP,我们的代码和数据,请引用我们的论文:
@article { chiang2024llamp ,
title = { LLaMP: Large Language Model Made Powerful for High-fidelity Materials Knowledge Retrieval and Distillation } ,
author = { Chiang, Yuan and Chou, Chia-Hong and Riebesell, Janosh } ,
journal = { arXiv preprint arXiv:2401.17244 } ,
year = { 2024 }
}我们感谢Matthew McDermott(@mattmcdermott),乔丹·伯克利(UC Berkeley)的材料科学与工程学中的乔丹·伯恩斯(Jordan Burns)的宝贵反馈和建议。我们还要感谢材料项目团队的支持,并提供了这项工作中使用的数据。我们还要感谢Karlo Berket博士(@kbuma)和Anubhav Jain博士(@Computron)的建议和指导。