Tip
TL; DR: LLAMP adalah kerangka kerja generasi pengambilan multimodal (RAG) dari agen reaksi hierarkis yang dapat berinteraksi secara dinamis dan rekursif dengan proyek material ke Ground LLMS pada bahan informatika bahan-fidelititas tinggi.
Repositori ini menyertai Llamp Kertas kami: Model Bahasa Besar membuat kuat untuk pengambilan pengetahuan dan distilasi bahan kesetiaan tinggi . Basis kode kami dibangun di atas langchain dan dirancang untuk menjadi modular dan dapat diperluas, dan dapat digunakan untuk mereproduksi eksperimen dalam kertas, serta mengembangkan eksperimen baru.
Llamp juga merupakan homonim dari proyek bahan model bahasa besar . Ini memberdayakan LLMS dengan database bahan komputasi skala besar untuk mengurangi kemungkinan halusinasi untuk informatika bahan.
git clone https://github.com/chiang-yuan/llamp.git
cd llamp/api
pip install -e . Setelah instalasi, lihat obrolan Colab Notebook atau notebook dalam experiments untuk memulai.
Anda mungkin perlu memasang paket tambahan untuk mendukung simulasi atomistik:
pip install ase, atomate2, jobflow, mace-torchdocker-compose up --buildKami memahami kadang -kadang sulit untuk menavigasi basis data proyek material! Kami ingin semua orang dapat mengakses informatika materi melalui AI percakapan. Kami mencari kontributor untuk membantu kami membangun LLAMP yang lebih kuat dan ramah pengguna untuk mendukung lebih banyak titik akhir API MP atau datastore dan agen eksternal.
Ke contirbute ke llamp, silakan ikuti langkah -langkah ini:
cp .env.example .env.localdocker-compose upJika Anda menggunakan LLAMP, kode dan data kami dalam riset Anda, silakan kutip makalah kami:
@article { chiang2024llamp ,
title = { LLaMP: Large Language Model Made Powerful for High-fidelity Materials Knowledge Retrieval and Distillation } ,
author = { Chiang, Yuan and Chou, Chia-Hong and Riebesell, Janosh } ,
journal = { arXiv preprint arXiv:2401.17244 } ,
year = { 2024 }
}Kami berterima kasih kepada Matthew McDermott (@mattmcdermott), Jordan Burns dalam Sains dan Teknik Bahan di UC Berkeley atas umpan balik dan saran mereka yang berharga. Kami juga berterima kasih kepada tim proyek materi atas dukungan mereka dan untuk menyediakan data yang digunakan dalam pekerjaan ini. Kami juga berterima kasih kepada Dr. Karlo Berket (@kbuma) dan Dr. Anubhav Jain (@Computron) atas saran dan bimbingan mereka.