Это хранилище кода для генеративного ИИ с Langchain, первым изданием, опубликованным Packt.
Бен Ауффарт
CHATGPT и модели GPT от OpenAI вызвали революцию не только в том, как мы пишем и исследованы, но и в том, как мы можем обрабатывать информацию. В этой книге обсуждается функционирование, возможности и ограничения LLMS, лежащих в основе систем чата, включая CHATGPT и BARD. Это также демонстрирует серию практических примеров, как использовать структуру Langchain для создания готовых и отзывчивых приложений LLM для задач, начиная от поддержки клиентов до помощи в разработке программного обеспечения и анализа данных-иллюстрируя обширную полезность LLM в приложениях реального мира.
Разблокируйте весь потенциал LLM в рамках ваших проектов, когда вы ориентируетесь на руководство по точной настройке, быстрой инженерии и передовой практике для развертывания и мониторинга в производственных средах. Независимо от того, создаете ли вы инструменты для творческого письма, разрабатываете сложные чат-боты или создаете передовые средства разработки программного обеспечения, эта книга станет вашей дорожной картой для овладения трансформирующей силой генеративного ИИ с уверенностью и творчеством.
Спасибо, что выбрали «Generative AI с Langchain»! Мы ценим ваш энтузиазм и отзывы.
Обратите внимание, что мы выпустили обновленную версию книги. Следовательно, для этого хранилища есть две разные ветви:
Пожалуйста, обратитесь к заинтересованной вами версии, или которая соответствует вашей версии книги.
Если вы уже приобрели актуальную печатную или Kindle версию этой книги, вы можете получить версию PDF без DRM бесплатно. Просто нажмите на ссылку, чтобы получить бесплатный PDF. Free-Ebook
Мы также предоставляем PDF -файл с цветными изображениями экрана/диаграмм, используемых в этой книге на GraphicBundle
Обновления кода: наша обязательство - предоставить вам стабильные и ценные примеры кода. В то время как Langchain известен частыми обновлениями, мы понимаем важность согласования нашего кода с последними изменениями. Репозиторий компаньона регулярно обновляется, чтобы гармонизировать с разработками Langchain.
Ожидайте стабильность: для стабильности и удобства использования, хранилище может не соответствовать каждому незначительному обновлению Langchain. Мы стремимся к последовательности и надежности, чтобы обеспечить беспрепятственный опыт для наших читателей.
Как связаться с нами: столкнуться с проблемами или иметь предложения? Пожалуйста, не стесняйтесь открыть проблему, и мы быстро рассмотрим ее. Ваш отзыв бесценен, и мы здесь, чтобы поддержать вас в вашем путешествии с Langchain. Спасибо за понимание и счастливое кодирование!
Вы можете взаимодействовать с автором и другими читателями на сервере Discord и найдите последние обновления и обсуждения в сообществе в Discord
В следующей таблице вы можете найти ссылки на каталоги в этом репозитории. Каждый каталог содержит дополнительные ссылки на сценарии Python и ноутбуки. Вы также можете увидеть ссылки на вычислительные платформы, где вы можете выполнить ноутбуки в репозитории. Обратите внимание, что есть и другие сценарии Python и проекты, которые не являются записными книгами, которые вы найдете в каталогах главы.
| Главы | Колаба | Кэггл | Градиент | Студийная лаборатория |
|---|---|---|---|---|
| Глава 1: Что такое генеративный ИИ? | Нет примеров кода | |||
| Глава 2: Langchain для приложений LLM | Нет примеров кода | |||
| Глава 3: Начало работы с Langchain | каталог | |||
| ||||
| ||||
| ||||
| ||||
| ||||
| ||||
| ||||
| ||||
| Глава 4: Помощники с способными зданиями | каталог | |||
| ||||
| ||||
| ||||
| Глава 5: Создание чат -бота, как чатгпт | каталог | |||
| ||||
| ||||
| ||||
| ||||
| ||||
| Глава 6: Разработка программного обеспечения с генеративным ИИ | каталог | |||
| ||||
| ||||
| ||||
| ||||
| Глава 7: LLMS для науки о данных | каталог | |||
| ||||
| Глава 8: Настройка LLMS и их вывод | каталог | |||
| ||||
| Глава 9: Генеративный ИИ в производстве | каталог | |||
| Глава 10: Будущее генеративных моделей | Нет примеров кода |
Это компаньон репозиторий для книги. Вот несколько инструкций, которые помогают настройке. Пожалуйста, см. В главе 3.
Все главы полагаются на Python.
| Глава | Требуется программное обеспечение | Ссылка на программное обеспечение | Аппаратные спецификации | ОС требуется |
|---|---|---|---|---|
| Все главы | Python 3.11 | https://www.python.org/downloads/ | Должен работать на любом недавнем компьютере | Windows, MacOS, Linux (Any), MacOS, Windows |
Обратите внимание, что Python 3.12 может не работать (см. #11).
Вы можете установить свою местную среду с помощью Conda (рекомендуется) или PIP. Предоставлены конфигурации среды для Conda, PIP и поэзии. Все они были протестированы на MacOS. Обратите внимание, что если вы выберете PIP в качестве инструмента установки, вам может потребоваться дополнительная установка системных зависимостей.
Если у вас есть какие -либо проблемы с окружающей средой, поднимите проблему, где вы показываете ошибку, которую вы получили. Если вы чувствуете себя уверенно, пожалуйста, продолжайте и создайте запрос на тягу.
В окнах некоторые люди испытывали трудности с Conda и PIP (из -за чтения и NCURSES). Если это так, пожалуйста, посмотрите на WSL или используйте установку Docker. Некоторые люди на Winodws сообщили, что им нужно установить визуальные инструменты сборки CPP. В любом случае, если у вас есть какие -либо проблемы с окружающей средой, пожалуйста, поднимите проблему, где вы показываете ошибку, которую вы получили. Если вы уверены, что нашли улучшение, пожалуйста, идите вперед и создайте запрос на привлечение.
Для PIP и поэзии убедитесь, что вы установите Pandoc в свою систему. На macOS используйте варево:
brew install pandocНа Ubuntu или Debian Linux, используйте Apt:
sudo apt-get install pandocВ Windows вы можете использовать установщик.
Это рекомендуемый метод для установки зависимостей. Пожалуйста, убедитесь, что у вас установлена Anaconda.
Сначала создайте среду для книги, которая содержит все зависимости:
conda env create --file langchain_ai.yaml --force Среда Conda называется langchain_ai . Вы можете активировать его следующим образом:
conda activate langchain_ai PIP - это инструмент управления зависимостями по умолчанию в Python. С помощью PIP вы сможете установить все библиотеки из файла требований:
pip install -r requirements.txtЕсли вы работаете с медленным подключением к Интернету, вы можете увидеть тайм -аут с PIP (это также может произойти с Conda и PIP). В качестве обходного пути вы можете увеличить настройку тайм -аута, как это:
export PIP_DEFAULT_TIMEOUT=100Есть файл Docker для окружающей среды. Он использует среду Docker и запускает ноутбук ipython. Чтобы использовать его, сначала постройте его, а затем запустите:
docker build -t langchain_ai .
docker run -it -p 8888:8888 langchain_aiВы должны быть в состоянии найти ноутбук в вашем браузере по адресу http: // localhost: 8888.
Убедитесь, что у вас установлена поэзия. На Linux и MacOS вы сможете использовать файл требований:
poetry install --no-root Это должно занять файл pyproject.toml и установить все зависимости.
Следуя лучшим практикам безопасности, я не занимаюсь своими полномочиями для GitHub. Вы можете увидеть import операторы, упомянутые файл config.py , который не включен в репозиторий. Этот модуль имеет метод set_environment() , который устанавливает все ключи как переменные среды, такие как это:
Пример config.py:
import os
def set_environment ():
os . environ [ 'OPENAI_API_KEY' ] = 'your-api-key-here'Очевидно, вы бы поместили свои учетные данные API здесь. В зависимости от интеграции (OpenAI, Azure и т. Д.) Вы должны добавить соответствующие клавиши API. Ключи API OpenaI наиболее часто используются во всем коде.
Вы можете найти более подробную информацию о учетных данных и настройке API в главе 3 Генеративного AI книги с Langchain.
Если вы найдете что -то не так с ноутбуками или зависимостями, пожалуйста, не стесняйтесь создавать запрос на тягу.
Если вы хотите изменить спецификацию зависимости Conda (файл YAML), вы можете проверить его так:
conda env create --file langchain_ai.yaml --forceВы можете обновить требования PIP, как это:
pip freeze > requirements.txtПожалуйста, убедитесь, что вы держите эти два способа поддержания зависимостей в синхронизации.
Затем убедитесь, что вы тестируете ноутбуки в новой среде, чтобы увидеть, что они работают.
Я включил Makefile , который включает в себя инструкции для проверки с Flake8, Mypy и другими инструментами. Я запускал Mypy так:
make typecheckЧтобы запустить проверку кода в Ruff, пожалуйста, запустите
ruff check . Бен Ауффарт Бен Ауффарт-ученый для данных с полным стеком с более чем 15-летним опытом работы. С фоном и докторской степенью В вычислительной и когнитивной нейробиологии он разработал и проводил влажные лабораторные эксперименты по клеточным культурам, проанализировал эксперименты с терабайтами данных, запускают модели мозга на суперкомпьютерах IBM с до 64 тысяч ядер, созданными производственными системами, обрабатывающими сотни и тысячи транзакций в день и обученные языковые модели на большом корпусе текстовых документов. Он стал соучредителем и является бывшим президентом спикеров Data Science, Лондон.