ヒント
TL; DR:LLAMPは、階層材料プロジェクトと動的かつ再帰的に相互作用することができる階層的反応剤のマルチモーダル検索生成(RAG)フレームワークです。
このリポジトリには、私たちの論文llamp:大規模な言語モデルが高忠実度の材料の知識の検索と蒸留に強力になっています。私たちのコードベースはLangchain上に構築されており、モジュラーで拡張可能になるように設計されており、論文の実験を再現し、新しい実験を開発するために使用できます。
LLAMPは、大規模な言語モデルマテリアルプロジェクトの同名でもあります。材料情報学の幻覚の可能性を減らすために、大規模な計算材料データベースを使用してLLMを強化します。
git clone https://github.com/chiang-yuan/llamp.git
cd llamp/api
pip install -e .インストール後、Colab Notebookチャットまたはexperimentsのノートブックをチェックしてください。
Atomistic Simulationsをサポートするには、追加のパッケージをインストールする必要がある場合があります。
pip install ase, atomate2, jobflow, mace-torchdocker-compose up --buildマテリアルプロジェクトデータベースをナビゲートすることは難しいことを理解しています!会話型AIを介して、誰もが資料情報学にアクセスできるようにしたいと考えています。より強力でユーザーフレンドリーなLLAMPを構築して、より多くのMP APIエンドポイントまたは外部データストアおよびエージェントをサポートするための貢献者を探しています。
llampにcontめるには、次の手順に従ってください。
cp .env.example .env.localdocker-compose upあなたがあなたの研究で私たちのコードとデータ、LLAMPを使用している場合、私たちの論文を引用してください:
@article { chiang2024llamp ,
title = { LLaMP: Large Language Model Made Powerful for High-fidelity Materials Knowledge Retrieval and Distillation } ,
author = { Chiang, Yuan and Chou, Chia-Hong and Riebesell, Janosh } ,
journal = { arXiv preprint arXiv:2401.17244 } ,
year = { 2024 }
}Matthew McDermott(@mattmcdermott)、Jordan Burnsは、カリフォルニア州バークレーの材料科学と工学の貴重なフィードバックと提案に感謝します。また、材料プロジェクトチームのサポートと、この作業で使用されているデータを提供してくれたことに感謝します。また、Karlo Berket博士(@kbuma)とAnubhav Jain博士(@computron)のアドバイスとガイダンスにも感謝します。