LLM Finetuning
1.0.0
Добро пожаловать в PEFT (Pretraining-Evaluation Fine Tuning) Репозиторий проекта! Этот проект фокусируется на эффективной настройке крупных языковых моделей с использованием библиотеки Transformers Lora и Hugging Face.
| Название ноутбука | Описание | Колаб Зэйдж |
|---|---|---|
| 1. эффективно тренировать большие языковые модели с LORA и обнимающееся лицо | Детали и код для эффективной подготовки больших языковых моделей с использованием LORA и обнимающегося лица. | |
| 2. Fine настроить свою собственную модель Llama 2 в ноутбуке Colab | Руководство по тонкой настройке модели Llama 2 с использованием Colab. | |
| 3. Демонстрация чатбота Гуанако с моделью Llama-7B | Демонстрация демонстрации чат-бота, основанная на модели Llama-7B. | |
| 4. Peft Finetune-Bloom-560M-Tagger | Детали проекта для Peft Finetune-Bloom-560M-Tagger. | |
| 5. finetune_meta_opt-6-1b_model_bnb_peft | Подробная информация и руководство для создания модели Meta Opt-6-1b с использованием PEFT и Bloom-560M-Tagger. | |
| 6. Finetune Falcon-7b с самостоятельным обучением BNB | Руководство по производителям Falcon-7B с использованием самоотверженного обучения BNB. | |
| 7.finetune Llama2 с Qlora | Руководство по тонкой настройке модели Llama 2 7B, предварительно обученной, с использованием библиотеки PEFT и метода Qlora | |
| 8.stable_vicuna13b_8bit_in_colab | Руководство из тонкой настройки Vecuna 13b_8bit | |
| 9. gpt-neo-x-20b-bnb2bit_training | Руководство, как обучить модель GPT-Neox-20B, используя точность BFLOAT16 | |
| 10. MPT-Instruct-30B Обучение модели | MPT-Instruct-30B-это большая языковая модель от MoSaICML, которая обучается на наборе данных инструкций с короткой формой. Его можно использовать, чтобы следовать инструкциям, ответить на вопросы и генерировать текст. | |
| 11.rlhf_training_for_customdataset_for_anymodel | Как тренировать модель с обучением RLHF на любой модели LLM с пользовательским набором данных | |
| 12.fine_tuning_microsoft_phi_1_5b_on_custom_dataset (dialogstudio) | Как обучить модель с обучением TRL SFT на Microsoft PHI 1.5 с пользовательским | |
| 13. Manetuning Openai GPT3.5 Turbo | Как фиксировать GPT 3.5 на своих собственных данных | |
| 14. Manetuning Mistral-7b Mondeling Model с использованием Autotrain-Advanced | Как определить Mistral-7b, используя автоматическое продвижение | |
| 15. Учебник Rag Langchain | Как использовать тряпку с помощью langchain | |
| 16. График знаний LLM с ответом на вопрос Langchain PDF | Как создать график знаний с ответом на вопрос PDF | |
| 17. Text to Knolwedge Graph с функцией OpenAI с ответом на вопрос NEO4J и Langchain Agent | Как создать график знаний из текста или PDF -документа с ответом на вопрос PDF | |
| 18. Преобразовать документ в знание, используя Langchain и OpenAI | Эта записная книжка поможет вам понять, насколько проще вы можете преобразовать любые документы в знания для вашего следующего приложения на основе тряпки | |
| 19. Как тренировать 1-битную модель с LLMS? | Этот ноутбук поможет вам обучить модель с 1-битным и 2-битным методом квантования с использованием HQQ Framework | |
| 20.alpaca _+_ Gemma2_9b_unsloth_2X_FASTER_FINETUNING | Этот ноутбук поможет вам обучить модель с GEMMA2 9B | |
| 21. Оценка трубопровода RAG с использованием лучшей отраслевой практики Mlflow | В этом ноутбуке представлено всеобъемлющее руководство по оценке 21 Rag (Retive-Then-Answer Generation) с использованием MLFLOW, придерживаясь лучших отраслевых практик. | |
22. Оцените обнимающееся лицо LLM с помощью mlflow.evaluate() | В этом ноутбуке представлена комплексное руководство по оценке модели обучения языку обнимающего лица (LLM) с использованием MLFLOW_EVALAUTE. |
Взносы приветствуются! Если вы хотите внести свой вклад в этот проект, не стесняйтесь открывать проблему или отправить запрос на вытяжку.
Этот проект лицензирован по лицензии MIT.
Создан с ❤ Ashish