Кончик
TL; DR: LLAMP-это мультимодальная структура извлечения-аугментированных (RAG) (RAG)-структура иерархических реагированных агентов, которые могут динамически динамически и рекурсивно взаимодействовать с материалами, проецируя LLMS на информатике с высокой точки зрения материалов.
Этот репозиторий сопровождает нашу бумагу Llamp: Большая языковая модель, сделанная мощной для поиска знаний и дистилляции материалов с высокой точностью . Наша кодовая база построена на Langchain и предназначена для модульной и расширяемой, и может использоваться для воспроизведения экспериментов в статье, а также для разработки новых экспериментов.
LLAMP также является омоним проекта крупных языковых моделей . Он расширяет возможности LLM с крупномасштабной базой данных вычислительных материалов, чтобы снизить вероятность галлюцинации для информатики материалов.
git clone https://github.com/chiang-yuan/llamp.git
cd llamp/api
pip install -e . После установки ознакомьтесь с ноутбуком Colab или ноутбуками в experiments для запуска.
Вам может потребоваться установить дополнительные пакеты для поддержки атомистических симуляций:
pip install ase, atomate2, jobflow, mace-torchdocker-compose up --buildМы когда -нибудь понимаем, что трудно ориентироваться в базе данных проектов материалов! Мы хотим, чтобы все имели возможность получить доступ к материалам информатики через разговорную ИИ. Мы ищем участников, которые помогут нам создать более мощный и удобный LLAMP для поддержки большего количества конечных точек API MP или внешнего хранилища данных и агентов.
Чтобы Contirbute to Llamp, пожалуйста, выполните следующие действия:
cp .env.example .env.localdocker-compose upЕсли вы используете LLAMP, наш код и данные в вашем исследовании, пожалуйста, укажите нашу статью:
@article { chiang2024llamp ,
title = { LLaMP: Large Language Model Made Powerful for High-fidelity Materials Knowledge Retrieval and Distillation } ,
author = { Chiang, Yuan and Chou, Chia-Hong and Riebesell, Janosh } ,
journal = { arXiv preprint arXiv:2401.17244 } ,
year = { 2024 }
}Мы благодарим Мэтью МакДермотта (@mattmcdermott), Джордана Бернса в области материаловедения и техники в Калифорнийском университете в Беркли за их ценные отзывы и предложения. Мы также благодарим команду проекта «Материалы за их поддержку» и за предоставление данных, используемых в этой работе. Мы также благодарим доктора Карло Беркет (@kbuma) и доктора Анубхава Джайна (@computron) за их советы и руководство.