Awesome Prompt Engineering
1.0.0
このリポジトリには、生成事前トレーニングトランス(GPT)、ChatGPT、Palmなどに焦点を当てたプロンプトエンジニアリング用のハンドキュレーションリソースが含まれています
Prompt Engineering Course is coming soon..
?
迅速なエンジニアリングテクニック:
推論とコンテキスト学習:
言語モデルの評価と改善:
言語モデルのアプリケーション:
脅威の検出と敵対例:
少ないショット学習とパフォーマンスの最適化:
画像生成へのテキスト:
音楽/サウンド世代へのテキスト:
ビデオ生成へのテキスト:
概要:
?
| 名前 | 説明 | URL |
|---|---|---|
| llamaindex | LlamainDexは、LLMを備えた大規模な外部知識ベースを簡単に使用できるように設計された一連のデータ構造で構成されるプロジェクトです。 | [github] |
| 迅速に | LLMでNLPの問題を解決し、GPT、Palmなどの一般的な生成モデルのさまざまなNLPタスクプロンプトを簡単に生成します。 | [github] |
| Arize-Phoenix | ノートブック環境で実行されるMLの観測可能性のためのオープンソースツール。 LLM、CV、および表形式モデルを監視および微調整します。 | [github] |
| より良いプロンプト | LLMプロンプトのテストスイートは、それらをProdに押し込む前に | [github] |
| cometllm | LLMプロンプト、プロンプトテンプレート、プロンプト変数、メタデータなどをログ、視覚化、および評価します。 | [github] |
| 埋め込み | データセット上にボットのようなchatgptを作成するフレームワーク | [github] |
| インタラクティブな構成Explorerx | ICEは、言語モデルプログラム用のPythonライブラリとトレースVisualizerです。 | [github] |
| ヘイスタック | LLMSとトランスを使用してデータと対話するためのオープンソースNLPフレームワーク。 | [github] |
| Langchainx | 複合性を通じてLLMを使用したアプリケーションを構築します | [github] |
| OpenPrompt | プロンプトラーニングのオープンソースフレームワーク | [github] |
| プロンプトエンジン | このレポは、大規模な言語モデル(LLM)のプロンプトを作成および維持するためのNPMユーティリティライブラリが含まれています。 | [github] |
| PromptInject | PromptInjectは、モジュール式の方法でプロンプトを組み立てるフレームワークであり、LLMの堅牢性の定量的分析を敵対的な迅速な攻撃に提供します。 | [github] |
| AIをプロンプトします | GPT-3の高度な遊び場 | [github] |
| プロンプトソース | PromptSourceは、自然言語のプロンプトを作成、共有、使用するためのツールキットです。 | [github] |
| 思考ソース | 機械思考の科学のためのフレームワーク | [github] |
| プロンプトメテウス | ワンショットプロンプトエンジニアリングツールキット | [道具] |
| ai config | LLMSを使用してアプリケーションを構築するためのオープンソース構成ベースのフレームワーク | [github] |
| ラストマイルAI | さまざまなモダリティ(テキスト、スピーチ、オーディオ、画像)でLLMと対話するためのノートブックのような遊び場) | [道具] |
| Xpulsai | スケーラブルなAIアプリを簡単に構築します。 AI&MLのAutoopsプラットフォーム | [道具] |
| エージェラ | Agentaは、迅速な管理、評価、人間のフィードバック、展開のためのツールを備えたオープンソースLLM開発者プラットフォームです。 | [github] |
| プロンプトタイプ | LLM {Structured}タスクを開発、テスト、監視する | [道具] |
| 名前 | 説明 | URL | 有料またはオープンソース |
|---|---|---|---|
| Openai | Gpt-n自然言語のタスクの場合、コーデックスコードに自然言語を翻訳し、元の画像を作成および編集するためのdall・e | [Openai] | 有料 |
| Cohereai | Cohereは、1つのAPIを介して高度な大規模な言語モデルとNLPツールへのアクセスを提供します | [Cohereai] | 有料 |
| 人類 | 近日公開 | [人類] | 有料 |
| flan-t5 xxl | 近日公開 | [Huggingface] | オープンソース |
?
| 名前 | 説明 | URL |
|---|---|---|
| P3(プロンプトのパブリックプール) | P3(プロンプトのパブリックプール)は、NLPタスクの多様なセットをカバーするプロンプトの英語データセットのコレクションです。 | [Huggingface] |
| 素晴らしいchatgptプロンプト | Repoには、ChatGptを使用するためのChatGptプロンプトキュレーションが含まれています。 | [github] |
| プロンプトを書く | オンラインフォーラム(Reddit)からのプロンプトの作成と組み合わせた300Kの人間が書いたストーリーの大きなデータセットのコレクション | [Kaggle] |
| Midjourneyのプロンプト | Midjourneyの公開Discord Serverから削られたテキストプロンプトと画像URL | [Huggingface] |
?
| 名前 | 説明 | URL |
|---|---|---|
| chatgpt | chatgpt | [Openai] |
| コーデックス | Codexモデルは、コードを理解および生成できるGPT-3モデルの子孫です。彼らのトレーニングデータには、GitHubからの自然言語と数十億回のパブリックコードの両方が含まれています | [github] |
| 咲く | BigScienceの大規模なオープンサイエンスオープンアクセス多言語言語モデル | [Huggingface] |
| Facebook LLM | OPT-175Bは、METAで訓練されたGPT-3同等モデルです。これは、1,750億パラメーターを備えた最大の前提条件の言語モデルです。 | [アルパ] |
| gpt-neox | GPT-Neox-20B、パイルで訓練された200億パラメーターの自動再生言語モデル | [Huggingface] |
| flan-t5 xxl | Flan-T5は命令チューニングモデルです。つまり、プロンプトの一部として指示が与えられたときにゼロショットのような動作を示すことを意味します。 | [Huggingface/Google] |
| xlm-roberta-xl | XLM-Roberta-XLモデルは、100の言語を含む2.5TBのフィルタリングされたCommonCrawlデータで事前に訓練されています。 | [Huggingface] |
| GPT-J | これは、パイルデータセットで訓練されたGPT-2のような因果言語モデルです | [Huggingface] |
| Palm-rlhf-pytorch | 手のひらアーキテクチャの上にRLHF(人間のフィードバックによる補強学習)の実装。基本的にはチャットがありますが、手のひらと | [github] |
| gpt-neo | MESH-Tensorflowライブラリを使用したモデル平行GPT-2およびGPT-3スタイルモデルの実装。 | [github] |
| Lamda-rlhf-pytorch | PytorchにおけるGoogleのLamdaのオープンソースの事前トレーニング実装。 chatgptに似たRLHFを追加します。 | [github] |
| RLHF | 人間のフィードバックからの強化学習の実装(RLHF) | [github] |
| GLM-130B | GLM-130B:オープンバイリンガルの事前訓練モデル | [github] |
| mixtral-84b | Mixtral-84Bは、MLPあたり8人の専門家を持つ専門家(MOE)モデルの混合物です。 | [Huggingface] |
?
| 名前 | 説明 | URL |
|---|---|---|
| AIテキスト分類器 | AIテキスト分類器は、CHATGPTなどのさまざまなソースからAIによってテキストが生成された可能性を予測する微調整されたGPTモデルです。 | [Openai] |
| GPT-2出力検出器 | これは、Robertaの?/Transformers実装に基づいたGPT-2出力検出器モデルのオンラインデモです。 | [Huggingface] |
| Openai検出器 | AI執筆テキストを示すためのAI分類器(OpenAI Detector Pythonラッパー) | [github] |
??
プロンプトエンジニアリングの紹介
生成言語モデルの初心者のガイド
迅速なエンジニアリングのベストプラクティス
迅速なエンジニアリングの完全なガイド
迅速なエンジニアリングの技術的側面
迅速なエンジニアリングのリソース
?
?
このリストへの貢献を歓迎します!実際、それが私がそれを作成した主な理由です - 貢献を奨励し、人々が大規模な言語モデル(LLMS)と迅速なエンジニアリングの世界における新しいエキサイティングな開発について情報を提供するために、変更を購読することを奨励するためです。
貢献する前に、貢献ガイドラインを確認してください。これらのガイドラインは、あなたの貢献が当社の目標と一致し、品質と関連性の基準を満たすことを保証するのに役立ちます。このプロジェクトに貢献してくれてありがとう!