
Лучшие в мире крупные языковые модельные ресурсы постоянно обновляются
Проверьте больше информации
[Читать онлайн]
Содержимое
- Данные
- Тонкая настройка
- Вывод
- Оценка
- Испытать использование
- База знаний тряпка
- Агенты
- Поиск
- Книги
- Курс
- Учебник
- Бумага
- Советы
Данные
Примечание
Здесь называются数据, но здесь нет конкретного набора данных, но предоставляется метод обработки крупномасштабного сбора данных
Мы всегда считаем, что лучше научить людей рыбачить, чем научить людей, как ловить рыбу
- AotoLabel: метка, чистая и обогащающая текстовые наборы данных с помощью LLMS.
- Labelllm: платформа аннотации данных с открытым исходным кодом.
- Data Juicer: универсальная система обработки данных для обеспечения данных более качественного, сокового и более усваиваемой для LLMS!
- OMNIPARSER: Нативная библиотека потоковой передачи Golang ETL и библиотека преобразования для CSV, JSON, XML, EDI, TEXT и т. Д.
- Mineru: Mineru-это универсальный инструмент извлечения данных с открытым исходным кодом, поддерживает PDF/веб-страницу/электронную книгу.
- PDF-EXTRACT-KIT: комплексный инструментарий для высококачественного извлечения контента PDF.
- Parsera: легкая библиотека для очистки веб-сайтов с LLMS.
- Воробей: Воробей-это инновационное решение с открытым исходным кодом для эффективного извлечения данных и обработки из различных документов и изображений.
- Доклинг: Трансформировать PDF в JSON или Marckdown с легкостью и скоростью.
- Got-OC2.0: модель OCR.
- LLM Decontaminator: переосмысление эталона и загрязнение для языковых моделей с перефразированными образцами.
- DataTrove: DataTrove - это библиотека для обработки, фильтрации и дедупликации текстовых данных в очень большом масштабе.
- LLM-SWAURD: генерируйте большие синтетические наборы данных, такие как Cosmopedia.
- Distilabel: Distilabel - это структура для синтетических данных и обратной связи AI для инженеров, которым нужны быстрые, надежные и масштабируемые трубопроводы на основе проверенных исследовательских работ.
- Common Crawline-Pipeline-Creator: создатель Common Crawl Pipelor.
- В соответствии с DAT: обнаружение и извлечение таблиц в Markdown и CSV.
- Zerox: Zero Shot PDF OCR с GPT-4O-Mini.
- Doclayout-Yolo: повышение анализа макета документов с помощью различных синтетических данных и глобального адаптивного восприятия.
- Tensorzero: Make LLM улучшится с помощью опыта.
- Ramplewright: генерируйте большие синтетические данные, используя локальный LLM.
- PDF-Extract-API: документ (PDF) Извлечение и API PANSE с использованием современных моделей Art Modern OCRS + Ollama.
- PDF2HTMLEX: преобразовать PDF в HTML без потери текста или формата.
- Экстракт: быстрое и эффективное извлечение неструктурированных данных.
↥ Вернуться к вершине
Тонкая настройка
- Лама-Фактория: объединение эффективной тонкой настройки 100+ LLMS.
- USLOTH: в 2-5 раза быстрее на 80% меньше памяти LLM FineNetning.
- TRL: Transformer Atrembirment Learning.
- Firefly: Firefly: большой модельный инструмент обучения, который поддерживает обучение десятков больших моделей
- Xtuner: эффективный, гибкий и полнофункциональный инструментарий для тонкой настройки больших моделей.
- TOCHTUNE: библиотека Native-Pytorch для точной настройки LLM.
- Swift: используйте PEFT или полнопараметры для Finetune 200+ LLMS или 15+ MLLMS.
- Autotrain: новый способ автоматического обучения, оценки и развертывания современных моделей машинного обучения.
- OpenRLHF: простой в использовании, масштабируемой и высокопроизводительной структуре RLHF (поддержка 70B+ полная настройка и Lora & Mixtral & KTO).
- Ludwig: платформа с низким кодом для создания пользовательских LLM, нейронных сетей и других моделей искусственного интеллекта.
- Mistral-FineTune: легкая кодовая база, которая обеспечивает эффективную память и производительность моделей Мистрала.
- Айкит: тонкая настройка, создать и легко развернуть LLMS с открытым исходным кодом!
- H2-LLMStudio: H2O LLM Studio-Framework и GUI без кода для тонкой настройки LLMS.
- LITGPT: Pretrain, Finetune, развертывание 20+ LLMS на ваших собственных данных.
- LLMBOX: Комплексная библиотека для реализации LLMS, включая унифицированный тренировочный конвейер и комплексную оценку модели.
- Paddlenlp: простая в использовании и мощную библиотеку NLP и LLM.
- Workbench-Llamafactory: Это пример Nvidia AI Workbench Project, который демонстрирует сквозняк модельный рабочий процесс с использованием Llamafactory.
- OpenRLHF: простой в использовании, масштабируемой и высокопроизводительной структуре RLHF (70B+ PPO полная настройка и итерационная DPO & Lora & Mixtral).
- Фабрика Tinylylava: структура мелких крупных мультимодальных моделей.
- LLM-Foundry: код обучения LLM для моделей DataBricks Foundation.
- LMMS-FINETUNE: унифицированная кодовая база для крупных мультимодальных моделей Manetuning (Full, Lora), поддерживающая Llava-1,5, QWEN-VL, Llava-Interleave, Llava-Next-Video, PHI3-V и т. Д.
- Simplifine: Simplifine позволяет вам вызвать LLM FineTuning только одной строкой кода, используя любой набор данных или модель обнимающего лица.
- Transformer Lab: Приложение с открытым исходным кодом для Advanced LLM Engineering: взаимодействие, обучение, настраивать и оценивать большие языковые модели на своем компьютере.
- Liger-Kernel: эффективные ядра Triton для обучения LLM.
- Chatlearn: гибкая и эффективная учебная структура для крупномасштабного выравнивания.
- Нанотрон: минималистичная большая языковая модель 3D-параллелизма.
- Прокси -настройка: настройка языковых моделей от прокси.
- Эффективное выравнивание LLM: эффективный инструментарий выравнивания LLM.
- Autotrain-Advanced
- Meta Lingua: Lean, эффективная и простая кодовая база для исследования LLMS.
- Vision-LLM Alignemnt: этот репозиторий содержит код для SFT, RLHF и DPO, разработанный для LLM на основе зрения, включая модели LLAVA и модели Llama-3.2-Vision.
- Finetune-QWEN2-VL: быстрый старт для точной настройки или продолжения модели QWEN2-VL перед поездками.
↥ Вернуться к вершине
Вывод
- Оллама: Вставай и бегай с ламой 3, Мистраль, Джемма и другие крупные языковые модели.
- Open Webui: удобный пользователь Webui для LLMS (ранее Ollama Webui).
- Текст Generation Webui: веб -интерфейс Gradio для больших языковых моделей.
- Xinfere: мощная и универсальная библиотека, предназначенная для обслуживания языка, распознавания речи и мультимодальных моделей.
- Langchain: создайте контекстные приложения для рассуждений.
- LmamainDex: структура данных для ваших приложений LLM.
- Чат доли: с открытым исходным кодом, современный дизайн LLMS/AI Pramework.
- Tensorrt-LLM: TensorRt-LLM предоставляет пользователям простой в использовании Python API для определения крупных языковых моделей (LLMS) и создания двигателей-тензирных, которые содержат современные оптимизации для эффективного выполнения вывода на графических процессорах NVIDIA.
- VLLM: высокопроизводительный и эффективный вывод и сердечный двигатель для LLMS.
- Llamachat: Общайтесь с вашими любимыми моделями Llama в приложении MacOs.
- NVIDIA CHATRTX: CHATRTX - это демонстрационное приложение, которое позволяет персонализировать большую языковую модель GPT (LLM), подключенную к вашему собственному контенту - DOC, примечаниям или другим данным.
- LM Studio: Discovery, скачать и запустить локальные LLMS.
- Chat-with-mlx: Общайтесь с вашими данными назначально на Apple Silicon с помощью MLX Framework.
- Цены на LLM: быстро найдите API идеального крупного языка (LLM) для вашего бюджета!
- Открыть интерпретатор: интерфейс естественного языка для компьютеров.
- Чат-Оллама: чат с открытым исходным кодом, основанный на LLMS.
- CHAT-UI: Открытый кодовой база с открытым исходным исходным исходным исходным исходным исходным кода.
- MEMGPT: Создайте агенты LLM с долговременной памятью и пользовательскими инструментами.
- KOBOLDCPP: простой один файл для запуска различных моделей GGML и GGUF с пользовательским интерфейсом Koboldai.
- LLMFARM: Llama и другие крупные языковые модели на iOS и MacOS Offline с использованием библиотеки GGML.
- Enchanted: Enchanted - это приложение для iOS и MacOS для общения с частными языковыми моделями, такими как Llama2, Mistral или Vicuna, с использованием Ollama.
- Flowize: перетаскивать пользовательский интерфейс для создания индивидуального потока LLM.
- Ян: Ян-альтернатива с открытым исходным кодом Catgpt, которая работает на 100% в автономном режиме на вашем компьютере.
- LMDEPLOY: LMDEPLOY - это инструментарий для сжатия, развертывания и обслуживания LLMS.
- Routellm: структура для обслуживания и оценки маршрутизаторов LLM - сохранить затраты LLM без ущерба для качества!
- Minference: собирается ускорить вывод LLMS LOL-контекста, соответствующий и динамический редкий, рассчитывает внимание, которое снижает задержку вывода на до 10 раз для предварительного заполнения на A100 при сохранении точности.
- MEM0: слой памяти для персонализированного ИИ.
- SGLANG: SGLANG - это еще одна быстрое обслуживание для крупных языковых моделей и моделей языка зрения.
- Airllm: Airllm оптимизирует использование памяти вывода, позволяя 70b крупные языковые модели выполнять вывод на одной карте графического процессора 4 ГБ без квантования, дистилляции и обрезки.
- LLMHUB: LLMHUB - это легкая платформа управления, предназначенная для оптимизации работы и взаимодействия с различными языковыми моделями (LLMS).
- Юанчат
- Litellm: вызовите все API LLM, используя формат Openai [коренная порода, huggingface, vertexai, keelsai, azure, openai, groq и т. Д.]
- Guidellm: Guidellm - это мощный инструмент для оценки и оптимизации развертывания моделей крупных языков (LLMS).
- LLM-двигатели: единый механизм вывода для крупных языковых моделей (LLMS), включая модели с открытым исходным кодом (VLLM, SGLANG, вместе) и коммерческие модели (OpenAI, Mistral, Claude).
- OARC: OLLAMA_AGENT_ROLL_CAGE (OARC)-это локальный агент Python, объединяющий OLLAMA LLM с речевыми моделями Coqui-TTS, классы кераса, видение Llava, распознавание шепота и многое другое для создания единого агента чат-ботов для локальной, индивидуальной автоматизации.
- G1: Использование Llama-3.1 70b на GROQ для создания O1-подобных цепочек рассуждений.
- MemoryScope: MemoryScope предоставляет чат-боты LLM с мощными и гибкими возможностями долговременной памяти, предлагая структуру для создания таких способностей.
- Openllm: запустите любые LLM с открытым исходным кодом, такие как Llama 3.1, Gemma, в качестве конечной точки API OpenAI в облаке.
- Бесконечность: база данных AI-местной данных, созданная для приложений LLM, обеспечивая невероятно быстрый гибридный поиск плотного встраивания, разреженного встраивания, тензора и полнотекстового текста.
- OPTILLM: OpenAI API-совместимый оптимизированный прокси, который реализует несколько современных методов, которые могут повысить точность и производительность LLMS.
- Llama Box: реализация сервера вывода LLM на основе llama.cpp.
↥ Вернуться к вершине
Оценка
- LM-оценка-Harness: структура для нескольких выстрелов в оценке языковых моделей.
- OpenCompass: OpenCompass-это платформа оценки LLM, поддерживающая широкий спектр моделей (Llama3, Mistral, Internlm2, GPT-4, Llama2, Qwen, GLM, Claude и т. Д.) Более 100+ наборов данных.
- LLM-Comparator: Comparator LLM является интерактивным инструментом визуализации данных для оценки и анализа ответов LLM, разработанных, разработанных.
- Evalscope
- Плетение: легкий инструментарий для отслеживания и оценки приложений LLM.
- Mixeval: Получение мудрости толпы из Mlm Benchmark Mixtures.
- Руководство по оценке: Если вы когда -нибудь задумывались, как убедиться, что LLM хорошо выполняет вашу конкретную задачу, это руководство для вас!
- Ollama Benchmark: LLM.
- Vlmevalkit: инструментарий с открытым исходным кодом, инструментарий для больших моделей на языке зрения (LVLMS), поддержка ~ 100 VLMS, 40+ контрольных показателей.
LLM API 服务平台:
- Гриб
- Поток на основе кремния
- Вулканический двигатель
- Вэнь Синь Цяньфан
- DashScope
↥ Вернуться к вершине
Испытать использование
- Lmsys Chatbot Arena: Benderking LLMS в дикой природе
- Compassarena Sinan Mockup Arena
- Лангеря Банг
- Объединения
- Пространства мудрец
- Поэ
- Большая модель брата Лин
- OpenRouter
- AnyChat
↥ Вернуться к вершине
База знаний тряпка
- Что угодно: приложение All-In-One AI для любого LLM с полномочиями AI и агентом AI.
- MAXKB: Система вопросов и ответов базы знаний, основанная на модели LLM большой языковой модели. Вне коробки, поддерживайте быстрое внедрение в сторонние бизнес-системы
- Ragflow: двигатель с открытым исходным кодом (Getrieval-Augment Generation) на основе глубокого понимания документов.
- DIFY: Интуитивно понятный интерфейс приложения LLM с открытым исходным кодом.
- FASTGPT: платформа, основанная на знаниях, построенная на LLM, предлагает возможности обработки данных и модели для обработки данных, позволяет проводить оркестровку рабочего процесса посредством визуализации потока.
- Langchain Chatchat: Местный вопрос и ответ на местный базы знаний на основе различных крупных языковых моделей, таких как Langchain и Chatglm
- Qanything: Вопрос и ответ на основании чего -либо.
- Quivr: личный помощник по продуктивности (Rag) ⚡?
- RAG-GPT: RAG-GPT, используя технологию LLM и RAG, учится на основаниях знаний, основанных на пользователе, чтобы предоставить контекстуально релевантные ответы для широкого спектра запросов, обеспечивая быстрый и точный поиск информации.
- VERBA: Поиск Augmented Generation (Rag) Чатбот, работающий на Weaviate.
- Flashrag: Python Toolkit для эффективных исследований Rag.
- GraphRAG: модульная система извлечения на основе графиков-аугированного поколения (RAG).
- Lightrag: Lightrag помогает разработчикам как на строительстве, так и оптимизации трубопроводов ретривер-агента.
- Graphrag-ollama-UI: GraphRAG с использованием Ollama с пользовательским интерфейсом Gradio и дополнительными функциями.
- Nano-Graphrag: простая, легкая внедрение графрага.
- Методы RAG: Этот репозиторий демонстрирует различные передовые методы для систем поиска-августа (RAG).
- Ragas: Оценка структура для ваших трубопроводов из поиска дополненного поколения (RAG).
- Kotaemon: Пользовательский пользовательский интерфейс с открытым исходным кодом для общения с вашими документами.
- Ragapp: самый простой способ использовать агентскую тряпку на любом предприятии.
- Turborag: Ускорение поколения из поиска с предварительно вычисленными кВ-кэшами для кусочкового текста.
- Lightrag: простое и быстрое извлечение поколения.
- Ten: Следующая структура AI-Agent, первая в мире по-настоящему в реальном времени, мультимодальная среда AI-агента.
- Autorag: Rag Automl Tool для автоматического поиска оптического Rag Pipeline для ваших данных.
- KAG: KAG-это рамка поколения, поддерживаемая знаниями, основанную на двигателе OpenSPG, которая используется для создания строгих решений и услуг по поиску информации.
- Fast-Graphrag: тряпка, которая разумно адаптируется к вашим варианту использования, данных и запросам.
- Крошечный графраг
- DB-GPT GraphRAG: DB-GPT GraphRAG интегрирует как графики знаний на основе триплета, так и графики структуры документов, используя при этом механизмы поиска сообщества и документов, чтобы улучшить возможности RAG, достигая сопоставимой производительности, потребляя только 50% токенов, требуемых GraphRAG Microsoft.
- Чонки: библиотека безумной тряпки, которая легкая, молниеносная и готовая отдавать ваши тексты.
↥ Вернуться к вершине
Агенты
- Autogen: Autogen - это структура, которая позволяет разработать приложения LLM с использованием нескольких агентов, которые могут общаться друг с другом для решения задач
- Crewai: Структура для организации ролевых игр, автономных агентов AI.
- Костюм
- AgentGPT: сборка, настройка и развертывание автономных агентов ИИ в вашем браузере.
- Xagent: автономный агент LLM для сложного решения задач.
- MobileAgent: мощная помощника по эксплуатации мобильных устройств.
- LAGENT: легкая структура для строительства агентов на основе LLM.
- Qwen-Agent: Agent Framework и приложения, построенные на QWEN2, включающие вызова функций, интерпретатор кода, тряпку и расширение Chrome.
- Linkai: универсальная платформа интеллектуальной строительства AI
- Baidu Appbuilder
- Agentuniverse: Agentuniverse-это многоагентная структура LLM, которая позволяет разработчикам легко создавать многоагентные приложения.
- Lazyllm: инструмент разработки для создания многоагентных крупномасштабных приложений с низким кодом
- Agentscope: Начните строить многоагентные приложения LLM, проще.
- MOA: Смесь агентов (MOA)-это новый подход, который использует коллективные силы множественных LLM для повышения производительности, достигая современных результатов.
- Agarly: Структура разработки приложений AI -агента.
- OMAGENT: мультимодальная среда агента для решения сложных задач.
- Племя: нет инструмента кода для быстрого построения и координации многоагентных команд.
- Camel: First LLM многоагентная структура и сообщество с открытым исходным кодом, посвященное поиску закона масштабирования агентов.
- Presisonai: Приложение Prasonai объединяет автоген и Crewai или аналогичные рамки в низкодоводимое решение для создания и управления многоагентными системами LLM, сосредоточив внимание на простоте, настройке и эффективном сотрудничестве с человеком и агентом.
- IOA: рамка с открытым исходным кодом для совместных агентов искусственного интеллекта, обеспечение разнообразия, распределила агентов для объединения и выполнения сложных задач с помощью интернет-подключения.
- Лама-агентская система: агентские компоненты API-интерфейса лама.
- Agent Zero: Agent Zero не является предопределенным агентом.
- Агенты: рамка с открытым исходным кодом для ориентированных на данные, самоотверждающие автономные языковые агенты.
- Agentscope: Начните строить многоагентные приложения LLM, проще.
- Быстрость: самый быстрый способ привлечь многоагентных рабочих процессов в производство.
- Swarm: Framework для строительства, оркестра и развертывания многоагентных систем.
- Агент-S: Фреймворк с открытым агентом, которая использует компьютеры, как человек.
↥ Вернуться к вершине
Поиск
- OpenSearch GPT: SearchGPT / Clone с недоумением, но персонализирован для вас.
- MindSearch: многоагентная структура веб-поисковой системы на основе LLM (например, одухание.
- nanoperplexityai: самая простая реализация с открытым исходным кодом.
- Любопытство: попробуйте построить недоумение, похожее на пользовательский опыт.
↥ Вернуться к вершине
Книги
- Крупномасштабная языковая модель: от теории к практике
- "Модель большого языка"
- "Рукопадающий макет погрузился в LLM"
- "Рукопадающий агент искусственного интеллекта"
- Создайте большую языковую модель (с нуля)
- "Мультимодальный макет"
- Генеративный справочник искусственного интеллекта: дорожная карта для учебных ресурсов
- Понимание глубокого обучения
- «Иллюстрированная книга, чтобы узнать о трансформаторах и LLM»
- Строительство LLM для производства: повышение способности и надежности LLM с помощью подсказки, тонкой настройки и тряпки
- «Практическое руководство по крупным языковым моделям: практика применения и реализация сценария»
- "Практические большие языковые модели"
- Обработка естественного языка: теория и практика большой модели
- "Обучение ручного обучения обучения"
- «Введение в LLM для разработчиков»
- "Основная модель"
↥ Вернуться к вершине
Курс
LLM Resources Hub
- Stanford CS224N: обработка естественного языка с глубоким обучением
- Нг: Генеративный ИИ для всех
- NG: серия курсов LLM
- ACL 2023 Учебное пособие: языковые модели и приложения на основе поиска
- LLM-курс: курс, чтобы попасть в большие языковые модели (LLMS) с дорожными картами и ноутбуками Colab.
- Microsoft: Generative AI для начинающих
- Microsoft: состояние GPT
- Huggingface NLP курс
- Tsinghua NLP Liu Zhiyuan Team Big Model Open Class
- Стэнфорд CS25: Transformers United V4
- Стэнфорд CS324: модели на больших языках
- Принстон COS 597G (осень 2022): понимание моделей крупных языков
- Johns Hopkins CS 601.471/671 NLP: самоотверженные модели
- Li Hongyi Genai курс
- Openai-Cookbook: примеры и рекомендации по использованию API OpenAI.
- Руки на LLMS: Узнайте о LLM, LLMOPS и Vector DBS бесплатно, разработав, обучая и развернув систему Financial Advisor LLM в реальном времени.
- Университет Ватерлоо CS 886: недавние продвижения по моделям фондов
- Миштраль: Начало работы с Мишстралом
- Стэнфорд CS25: Transformers United V4
- Coursera: проект подачи заявок CHATGPT
- LANGGPT: Расширение прав и возможностей всех стать быстрым экспертом!
- Mistralai-Cookbook
- Введение в генеративный AI 2024 Spring
- Стройте Nanogpt: видео+кодовый урок по созданию Nanogpt с нуля.
- LLM101N: Давайте построим рассказчик.
- Графики знаний для тряпки
- LLMS с нуля (версия DataWhale)
- OpenRag
- Дорога в Аги
- Андрей Карпати - Нейронные сети: ноль для героя
- Интерактивная визуализация трансформатора
- Andysingal/LLM-курс
- LM-класс
- Google Advanced: Generative AI для разработчиков Путь обучения
- Антропоя: быстрое инженерное интерактивное учебное пособие
- LLMSBook
- Агенты с большим языком
- Cohere LLM University
- LLM и трансформаторы
- Smol Vision: рецепты сокращения, оптимизации, настройки передовых моделей зрения.
- Мультимодальная тряпка: болтать с видео
- LLMS Интервью примечание
- Rag ++: от POC до производства: Advanced Rag Course.
- Вес и предвзятость ИИ Академия: создание, строительство с LLMS, структурированные результаты и больше курсов LLM.
- Учебники и ресурсы
- Узнайте тряпку с нуля - Учебник Python AI от инженера Langchain
- Оценка LLM: полный курс
↥ Вернуться к вершине
Учебник
- Узнайте большую модель разработки приложений
- Ай -разработчик канал
- B Станция: Wulidun Tea House
- B Станция: Чейни Мюю
- YTB: AI в любое время
- B Станция: Ци Нини
- Быстрое инженерное руководство
- YTB: AI Super Metamorphose
- B Станция: TechBeat Artificial Intelligence Community
- B Станция: Huang Yihe
- B Станция: Глубокое изучение обработки естественного языка
- Визуализация LLM
- Жиху: сырой камень человек
- B Станция: Сяо Хейхей говорит об искусственном интеллекте
- Станция B: инженер автомобиля, обращенный к стене
- B Станция: Ветеран ИИ Венцхе
- Модели больших языков (LLM) с ноутбуками Colab
- YTB: IBM Technology
- YTB: Unify Reading Paper Group
- Чип Хайен
- Сколько Врам
- Блог: Science Space (Su Jianlin)
- Ytb: Hyung Win Chung
- Блог: Tejaswi Kashyap
- Блог: блог Xiaosheng
- Чжиху: YBQ
- Статьи W & B.
- Блог объятия
- Блог: gbyai
- Блог: Mlabonne
- LLM-действие
- Блог: lil'log (Oponai)
↥ Вернуться к вершине
Бумага
Примечание
? Объединение ежедневных газет, прохладные бумаги, документы ML, объясненные
- Hermes-3-Technical-отчет
- Стадо ламы 3 моделей
- Технический отчет QWEN
- QWEN2 Технический отчет
- QWEN2-VL Технический отчет
- DeepSeek LLM: масштабирование языковых моделей с открытым исходным кодом с долгомрождением
- DeepSeek-V2: сильная, экономичная и эффективная модель смеси экспертов
- Baichuan 2: открытые крупномасштабные языковые модели
- DataComp-LM: в поиске обучающих наборов следующего поколения для языковых моделей
- OLMO: Ускорение науки о языковых моделях
- MAP-neo: очень способный и прозрачный двуязычный серия моделей большой языка
- Китайский крошечный LLM: предварительно подготовка китайской большой языковой модели, ориентированной на китайский центр
- PHI-3 Технический отчет: высокоэффективная языковая модель локально на вашем телефоне
- Джамба-1,5: модели гибридного трансформатора-мамба в масштабе
- Джамба: гибридная языковая модель трансформатора-мамба
- Учебники - это все, что вам нужно
- Выкрытие мощности цунами данных: всесторонний опрос оценки и отбора данных для настройки инструкций языковых моделей
data - Olmoe: Open Mix-Of Experts Language Models
- Модель слияния бумаги
- Байчуан-Омни технический отчет
- Технический отчет 1,5 пинтов: предварительная подготовка в несколько дней, а не месяцы-ваша языковая модель процветает в данных качества
- Технический отчет о выравнивании Baichuan
- Hunyuan-Large: модель MOE с открытым исходным кодом с 52 миллиардами активированных параметров Tencent
- Molmo и Pixmo: открытые веса и открытые данные для современных мультимодальных моделей
- Tülu 3: Толкание границ в модели на открытом языке после тренировки
↥ Вернуться к вершине
Советы
- Что мы узнали из года строительства с LLMS (часть I)
- Что мы узнали из года строительства с LLMS (часть II)
- Что мы узнали из года наращивания с LLMS (Часть III): стратегия
- Легко начать с модели большого языка (LLM)
- LLMS для текстовой классификации: руководство по контролируемому обучению
- Неконтролируемая классификация текста: классифицировать естественный язык с помощью LLMS
- Текстовая классификация с LLMS: обзор лучших методов
- Ценообразование LLM
- Неценссуар любой LLM с абстракцией
- Крошечная вселенная LLM
- Zero-Chatgpt
- Zero-Qwen-Vl
- Finetune-Qwen2-Vl
- MPP-Llava
- BUILD_MINILLM_FROM_SCRATCH
- Tiny LLM
- Минимул: 3 часа обучения небольшому параметру GPT только с 26 м, и для вывода учебной карты для вывода требуется не менее 2 г -графической карты.
- LLM-Travel: посвящен глубокому пониманию, обсуждению и реализации различных технологий, принципов и приложений, связанных с крупными моделями
- Растилляция знаний: обучение LLM с синтетическими данными
- Часть 1: Методы адаптации моделей крупных языков
- Часть 2: Точная настройка или не настраивать
- Часть 3: Как тонкая настройка: сосредоточиться на эффективных наборах данных
- Читатель-LM: Модели с небольшим языком для очистки и преобразования HTML на Markdown
- Опыт строительства LLMS в течение одного года
- LLM Training-Pretrain
- Pytorch-Llama: Llama 2, внедренная с нуля в Pytorch.
- Оптимизация предпочтений для моделей языка зрения с TRL 【Модель поддержки】
- Модели с тонкой настройкой визуального языка с использованием sfttrainer 【Docs】
- Визуальное руководство по смеси экспертов (МО)
- Ролевая игра в крупных языковых моделях, таких как CHATGPT
- Руководство по распределению обучения: лучшие практики и руководства о том, как писать распределенный код обучения Pytorch.
- Шаблоны чата
- Топ -20+ rag obters Question
↥ Вернуться к вершине
Если вы найдете этот проект полезным для вас, пожалуйста, цитируйте:
@misc { wang2024llm ,
title = { awesome-LLM-resourses } ,
author = { Rongsheng Wang } ,
year = { 2024 } ,
publisher = { GitHub } ,
journal = { GitHub repository } ,
howpublished = { url{https://github.com/WangRongsheng/awesome-LLM-resourses} } ,
}