팁
TL; DR : LLAMP는 자료 프로젝트와 동적이고 재귀 적으로 상호 작용하여 고 충실도 재료 정보를 근거로 상호 작용할 수있는 계층 적 반응 제의 다중 모드 검색-방지 생성 (RAG) 프레임 워크입니다.
이 저장소는 우리의 종이 llamp : 고 충실한 재료 지식 검색 및 증류를 위해 강력하게 만든 대형 언어 모델 과 함께 제공됩니다. 우리의 코드베이스는 Langchain에 기반을두고 모듈 식 및 확장 가능하도록 설계되었으며 용지의 실험을 재현하고 새로운 실험을 개발하는 데 사용할 수 있습니다.
LLAMP는 또한 대형 언어 모델 자료 프로젝트 의 동성이기도합니다. 그것은 대규모 계산 재료 데이터베이스의 LLM에 권한을 부여하여 재료 정보학에 대한 환각의 가능성을 줄입니다.
git clone https://github.com/chiang-yuan/llamp.git
cd llamp/api
pip install -e . 설치 후 Colab 노트북 채팅 또는 experiments 에서 노트북을 확인하십시오.
원자 시뮬레이션을 지원하기 위해 추가 패키지를 설치해야 할 수도 있습니다.
pip install ase, atomate2, jobflow, mace-torchdocker-compose up --build우리는 언젠가 자료 프로젝트 데이터베이스를 탐색하는 것이 어렵다는 것을 이해합니다! 우리는 모든 사람들이 대화 AI를 통해 재료 정보학에 액세스 할 수 있기를 원합니다. 우리는 더 많은 MP API 엔드 포인트 또는 외부 데이터 저장소 및 에이전트를 지원하기 위해보다 강력하고 사용자 친화적 인 LLAM을 구축 할 수 있도록 기고자를 찾고 있습니다.
llamp에 연합하여 다음 단계를 따르십시오.
cp .env.example .env.localdocker-compose up귀하가 연구에서 LLAMP, 당사 코드 및 데이터를 사용하는 경우, 본 논문을 인용하십시오.
@article { chiang2024llamp ,
title = { LLaMP: Large Language Model Made Powerful for High-fidelity Materials Knowledge Retrieval and Distillation } ,
author = { Chiang, Yuan and Chou, Chia-Hong and Riebesell, Janosh } ,
journal = { arXiv preprint arXiv:2401.17244 } ,
year = { 2024 }
}귀중한 피드백과 제안에 대해 UC Berkeley의 재료 과학 및 엔지니어링의 Jordan Burns, Matthew McDermott (@mattmcdermott), Jordan Burns에게 감사드립니다. 또한 자료 프로젝트 팀에게 지원 과이 작업에 사용 된 데이터를 제공해 주셔서 감사합니다. 또한 조언과지도에 대해 Karlo Berket 박사 (@kbuma)와 Anubhav Jain 박사 (@computron)에게 감사드립니다.