Awesome Prompt Engineering
1.0.0
该存储库包含用于及时工程的手工策划资源,重点是生成预训练的变压器(GPT),CHATGPT,PALM等
Prompt Engineering Course is coming soon..
?
及时的工程技术:
推理和秘密学习:
评估和改进语言模型:
语言模型的应用:
威胁检测和对抗性例子:
几乎没有学习和绩效优化:
文字到图像生成:
音乐/声音的文字:
视频生成文字:
概述:
?
| 姓名 | 描述 | URL |
|---|---|---|
| Llamaindex | LlamainDex是一个由一组数据结构组成的项目,旨在使使用LLM的大型外部知识库更容易。 | [github] |
| 提示 | 解决了LLM的NLP问题,并轻松生成不同的NLP任务提示,例如GPT,Palm等流行的生成模型,以及Quickify | [github] |
| Arize-phoenix | 在笔记本环境中运行的ML可观察性的开源工具。监视和微调LLM,简历和表格模型。 | [github] |
| 更好的提示 | 在将其推向产品之前,请提示LLM提示 | [github] |
| cometllm | 日志,可视化和评估您的LLM提示,提示模板,提示变量,元数据等等。 | [github] |
| 嵌入链 | 在数据集上创建像机器人一样创建chatgpt的框架 | [github] |
| 交互式组成探索 | ICE是用于语言模型程序的Python库和跟踪可视化器。 | [github] |
| 草垛 | 开源NLP框架可以使用LLMS和Transformers与您的数据进行交互。 | [github] |
| Langchainx | 通过合成性通过LLM构建应用程序 | [github] |
| OpenPrompt | 及时学习的开源框架 | [github] |
| 提示引擎 | 此存储库包含一个NPM实用程序库,用于创建和维护大型语言模型(LLMS)的提示。 | [github] |
| 促进 | PickerTinject是一个以模块化方式组装提示的框架,以对LLM的鲁棒性对对抗性及时攻击的鲁棒性进行定量分析。 | [github] |
| 提示AI | GPT-3的高级操场 | [github] |
| 提示来源 | 提示Source是用于创建,共享和使用自然语言提示的工具包。 | [github] |
| 想法 | 机器思维科学的框架 | [github] |
| 提示 | 一声及时工程工具包 | [工具] |
| AI配置 | 一个基于开源配置的框架,用于使用LLMS构建应用程序 | [github] |
| Lastmile ai | 类似笔记本的操场,用于与不同方式与LLM互动(文本,语音,音频,图像) | [工具] |
| Xpulsai | 毫不费力地构建可扩展的AI应用程序。 AI&ML的自动平台 | [工具] |
| 代理人 | Agenta是一个开源LLM开发人员平台,其工具可以及时管理,评估,人为反馈和部署。 | [github] |
| 提示类型 | 开发,测试和监视您的LLM {结构化}任务 | [工具] |
| 姓名 | 描述 | URL | 付费或开源 |
|---|---|---|---|
| Openai | GPT-N用于自然语言任务,用于将自然语言转换为代码的法典,以及用于创建和编辑原始图像的dall·e | [Openai] | 有薪酬的 |
| Cohereai | Cohere通过一个API提供了对高级大型语言模型和NLP工具的访问 | [Cohereai] | 有薪酬的 |
| 人类 | 即将推出 | [人类] | 有薪酬的 |
| Flan-T5 XXL | 即将推出 | [huggingface] | 开源 |
?
| 姓名 | 描述 | URL |
|---|---|---|
| P3(公共提示) | P3(公共提示池)是涵盖各种NLP任务的提示英语数据集的集合。 | [huggingface] |
| 很棒的chatgpt提示 | 回购包括Chatgpt提示策划,以更好地使用ChatGpt。 | [github] |
| 写作提示 | 收集了一个大型数据集的300k人称故事,并与在线论坛(REDDIT)中的写作提示配对 | [Kaggle] |
| Midjourney提示 | 从Midjourney的公共不和谐服务器刮下的文本提示和图像URL | [huggingface] |
?
| 姓名 | 描述 | URL |
|---|---|---|
| chatgpt | chatgpt | [Openai] |
| 法典 | 法典模型是我们可以理解和生成代码的GPT-3模型的后代。他们的培训数据包含GitHub的自然语言和数十亿行公共代码 | [github] |
| 盛开 | Bigscience大型开放科学开放式多种语言模型 | [huggingface] |
| Facebook LLM | OPT-175B是由META训练的GPT-3等效模型。它是迄今为止最大的审核语言模型,具有1750亿个参数。 | [ALPA] |
| gpt-neox | GPT-NEOX-20B,在堆上训练的200亿参数自回归语言模型 | [huggingface] |
| Flan-T5 XXL | Flan-T5是一种指令调整的模型,这意味着当指示作为提示的一部分时,它表现出零拍的行为。 | [Huggingface/Google] |
| XLM-ROBERTA-XL | XLM-ROBERTA-XL模型在包含100种语言的2.5TB的2.5TB上进行了预训练。 | [huggingface] |
| GPT-J | 这是一种类似GPT-2的因果语言模型,该模型在桩数据集上训练 | [huggingface] |
| Palm-Rlhf-Pytorch | 在棕榈体系结构之上实施RLHF(通过人为反馈的增强学习)。基本上是changpt,但用棕榈 | [github] |
| gpt-neo | 使用网格 - 柔性库库的模型并行GPT-2和GPT-3风格模型的实现。 | [github] |
| lamda-rlhf-pytorch | Google的LAMDA在Pytorch中的开源预培训实施。添加类似于chatgpt的RLHF。 | [github] |
| RLHF | 从人类反馈(RLHF)中实施强化学习 | [github] |
| GLM-130B | GLM-130b:开放双语的预训练模型 | [github] |
| 混音84b | Mixtral-84b是专家(MOE)模型的混合物,每MLP 8个专家。 | [huggingface] |
?
| 姓名 | 描述 | URL |
|---|---|---|
| AI文本分类器 | AI文本分类器是一个微调的GPT模型,可预测AI是由AI从各种来源(例如ChatGpt)生成的可能性。 | [Openai] |
| GPT-2输出检测器 | 这是基于罗伯塔(Roberta)的“变形金刚”实施的GPT-2输出检测器模型的在线演示。 | [huggingface] |
| Openai探测器 | 用于指示AI写的文本的AI分类器(OpenAI探测器Python包装器) | [github] |
??
提示工程简介
生成语言模型的初学者指南
及时工程的最佳实践
完整指南及时工程
迅速工程的技术方面
迅速工程的资源
?
?
我们欢迎对此列表的贡献!实际上,这就是我创建它的主要原因 - 鼓励贡献并鼓励人们认同变化,以便了解大型语言模型(LLMS)和及时工程的新的令人兴奋的发展。
在贡献之前,请花点时间查看我们的贡献指南。这些准则将有助于确保您的贡献与我们的目标保持一致,并符合我们的质量和相关性标准。感谢您对为该项目做出贡献的兴趣!