Awesome Prompt Engineering
1.0.0
該存儲庫包含用於及時工程的手工策劃資源,重點是生成預訓練的變壓器(GPT),CHATGPT,PALM等
Prompt Engineering Course is coming soon..
?
及時的工程技術:
推理和秘密學習:
評估和改進語言模型:
語言模型的應用:
威脅檢測和對抗性例子:
幾乎沒有學習和績效優化:
文字到圖像生成:
音樂/聲音的文字:
視頻生成文字:
概述:
?
| 姓名 | 描述 | URL |
|---|---|---|
| Llamaindex | LlamainDex是一個由一組數據結構組成的項目,旨在使使用LLM的大型外部知識庫更容易。 | [github] |
| 提示 | 解決了LLM的NLP問題,並輕鬆生成不同的NLP任務提示,例如GPT,Palm等流行的生成模型,以及Quickify | [github] |
| Arize-phoenix | 在筆記本環境中運行的ML可觀察性的開源工具。監視和微調LLM,簡歷和表格模型。 | [github] |
| 更好的提示 | 在將其推向產品之前,請提示LLM提示 | [github] |
| cometllm | 日誌,可視化和評估您的LLM提示,提示模板,提示變量,元數據等等。 | [github] |
| 嵌入鏈 | 在數據集上創建像機器人一樣創建chatgpt的框架 | [github] |
| 交互式組成探索 | ICE是用於語言模型程序的Python庫和跟踪可視化器。 | [github] |
| 草垛 | 開源NLP框架可以使用LLMS和Transformers與您的數據進行交互。 | [github] |
| Langchainx | 通過合成性通過LLM構建應用程序 | [github] |
| OpenPrompt | 及時學習的開源框架 | [github] |
| 提示引擎 | 此存儲庫包含一個NPM實用程序庫,用於創建和維護大型語言模型(LLMS)的提示。 | [github] |
| 促進 | PickerTinject是一個以模塊化方式組裝提示的框架,以對LLM的魯棒性對對抗性及時攻擊的魯棒性進行定量分析。 | [github] |
| 提示AI | GPT-3的高級操場 | [github] |
| 提示來源 | 提示Source是用於創建,共享和使用自然語言提示的工具包。 | [github] |
| 想法 | 機器思維科學的框架 | [github] |
| 提示 | 一聲及時工程工具包 | [工具] |
| AI配置 | 一個基於開源配置的框架,用於使用LLMS構建應用程序 | [github] |
| Lastmile ai | 類似筆記本的操場,用於與不同方式與LLM互動(文本,語音,音頻,圖像) | [工具] |
| Xpulsai | 毫不費力地構建可擴展的AI應用程序。 AI&ML的自動平台 | [工具] |
| 代理人 | Agenta是一個開源LLM開發人員平台,其工具可以及時管理,評估,人為反饋和部署。 | [github] |
| 提示類型 | 開發,測試和監視您的LLM {結構化}任務 | [工具] |
| 姓名 | 描述 | URL | 付費或開源 |
|---|---|---|---|
| Openai | GPT-N用於自然語言任務,用於將自然語言轉換為代碼的法典,以及用於創建和編輯原始圖像的dall·e | [Openai] | 有薪酬的 |
| Cohereai | Cohere通過一個API提供了對高級大型語言模型和NLP工具的訪問 | [Cohereai] | 有薪酬的 |
| 人類 | 即將推出 | [人類] | 有薪酬的 |
| Flan-T5 XXL | 即將推出 | [huggingface] | 開源 |
?
| 姓名 | 描述 | URL |
|---|---|---|
| P3(公共提示) | P3(公共提示池)是涵蓋各種NLP任務的提示英語數據集的集合。 | [huggingface] |
| 很棒的chatgpt提示 | 回購包括Chatgpt提示策劃,以更好地使用ChatGpt。 | [github] |
| 寫作提示 | 收集了一個大型數據集的300k人稱故事,並與在線論壇(REDDIT)中的寫作提示配對 | [Kaggle] |
| Midjourney提示 | 從Midjourney的公共不和諧服務器刮下的文本提示和圖像URL | [huggingface] |
?
| 姓名 | 描述 | URL |
|---|---|---|
| chatgpt | chatgpt | [Openai] |
| 法典 | 法典模型是我們可以理解和生成代碼的GPT-3模型的後代。他們的培訓數據包含GitHub的自然語言和數十億行公共代碼 | [github] |
| 盛開 | Bigscience大型開放科學開放式多種語言模型 | [huggingface] |
| Facebook LLM | OPT-175B是由META訓練的GPT-3等效模型。它是迄今為止最大的審核語言模型,具有1750億個參數。 | [ALPA] |
| gpt-neox | GPT-NEOX-20B,在堆上訓練的200億參數自回歸語言模型 | [huggingface] |
| Flan-T5 XXL | Flan-T5是一種指令調整的模型,這意味著當指示作為提示的一部分時,它表現出零拍的行為。 | [Huggingface/Google] |
| XLM-ROBERTA-XL | XLM-ROBERTA-XL模型在包含100種語言的2.5TB的2.5TB上進行了預訓練。 | [huggingface] |
| GPT-J | 這是一種類似GPT-2的因果語言模型,該模型在樁數據集上訓練 | [huggingface] |
| Palm-Rlhf-Pytorch | 在棕櫚體系結構之上實施RLHF(通過人為反饋的增強學習)。基本上是changpt,但用棕櫚 | [github] |
| gpt-neo | 使用網格 - 柔性庫庫的模型並行GPT-2和GPT-3風格模型的實現。 | [github] |
| lamda-rlhf-pytorch | Google的LAMDA在Pytorch中的開源預培訓實施。添加類似於chatgpt的RLHF。 | [github] |
| RLHF | 從人類反饋(RLHF)中實施強化學習 | [github] |
| GLM-130B | GLM-130b:開放雙語的預訓練模型 | [github] |
| 混音84b | Mixtral-84b是專家(MOE)模型的混合物,每MLP 8個專家。 | [huggingface] |
?
| 姓名 | 描述 | URL |
|---|---|---|
| AI文本分類器 | AI文本分類器是一個微調的GPT模型,可預測AI是由AI從各種來源(例如ChatGpt)生成的可能性。 | [Openai] |
| GPT-2輸出檢測器 | 這是基於羅伯塔(Roberta)的“變形金剛”實施的GPT-2輸出檢測器模型的在線演示。 | [huggingface] |
| Openai探測器 | 用於指示AI寫的文本的AI分類器(OpenAI探測器Python包裝器) | [github] |
??
提示工程簡介
生成語言模型的初學者指南
及時工程的最佳實踐
完整指南及時工程
迅速工程的技術方面
迅速工程的資源
?
?
我們歡迎對此列表的貢獻!實際上,這就是我創建它的主要原因 - 鼓勵貢獻並鼓勵人們認同變化,以便了解大型語言模型(LLMS)和及時工程的新的令人興奮的發展。
在貢獻之前,請花點時間查看我們的貢獻指南。這些準則將有助於確保您的貢獻與我們的目標保持一致,並符合我們的質量和相關性標準。感謝您對為該項目做出貢獻的興趣!