大規模な言語モデルショーケースへようこそ!このリポジトリは、GPT-3やその他の大規模な言語モデルなどの最先端の言語モデルを使用する、興味深いアプリケーション、ユースケース、 GitHubリポジトリ、チュートリアルのキュレーションされたコレクションです。あなたが言語愛好家、機械学習研究者であろうと、AIの能力に興味のある人であろうと、このリポジトリは、自然言語加工の世界を探索し、これらの強力なモデルが何ができるかを見るのに最適な場所です。
このリポジトリには、テキスト生成、検索、質問の回答などに使用されている言語モデルのさまざまな例とデモンストレーションがあります。また、独自のアプリケーションを構築するためのチュートリアルとリソース、および他のリポジトリやさらなる学習のためのリソースへのリンクもあります。
github
このPythonスクリプトは、AIを搭載したタスク管理システムの例です。システムは、ChromaやWeaviateなどのOpenAIおよびVectorデータベースを使用して、タスクを作成、優先順位付け、実行します。このシステムの背後にある主なアイデアは、以前のタスクと事前定義された目的の結果に基づいてタスクを作成することです。このスクリプトは、OpenAIの自然言語処理(NLP)機能を使用して、目的に基づいて新しいタスクを作成し、Chroma/Weaviateを使用してコンテキストのタスク結果を保存および取得します。これは、元のタスク駆動型の自律剤(2023年3月28日)の解析バージョンです。
github
自律AI SystemsRemoのローリングエピソードメモリオーガナイザー(Remo):再帰的エピソードメモリオーガナイザー。効率的でスケーラブルなメモリ管理。会話データを分類学的ランクに整理します。各ランククラスターは、意味的に類似した要素をクラスターします。コンテキスト認識AIシステムのための強力なツール。会話の機能を改善し、正確性を思い出します。
github
Window AIは、AIモデルを1つの場所で構成し、Webで使用できるブラウザ拡張機能です。開発者向け:APIコストや制限がないマルチモデルアプリを簡単に作成します。注入されたwindow.aiライブラリを使用してください。ユーザー向けに分散型AIを活用してください。プライバシーを保護するために、外部(Openaiなど)、Proxied、またはLocalなど、Webで使用するAIを制御します。モデルプロバイダーの場合:開発者がアプリを変更する必要なく、ユーザーのエコシステムに接続します。
github
OpenChatkitは、さまざまなアプリケーション向けの専門的な目的チャットボットと汎用チャットボットの両方を作成するための強力なオープンソースベースを提供します。このキットには、命令チューニング言語モデル、緩和モデル、およびカスタムリポジトリからの最新の応答を含めるための拡張可能な検索システムが含まれています。
github
Alpaca-Turboは、セットアップを必要とせずにローカルに実行できる大きな言語モデルを使用するフロントエンドです。これは、llama.cppのユーザーフレンドリーなWeb UIであり、他の実装から際立ったユニークな機能を備えています。目標は、速度や機能を犠牲にすることなく、構成と使用が簡単なシームレスなチャットエクスペリエンスを提供することです。
github
LLMSを使用してチャットアプリケーションを構築する場合、メモリ処理は毎回構築する必要があります。 Motorheadは、そのプロセスを支援するサーバーです。
github
ChatGptとさまざまな大規模な言語モデル(LLMS)は、幅広いアプリケーションの開発を可能にする信じられないほどの汎用性を誇っています。ただし、アプリケーションの人気が高まり、トラフィックレベルが高いため、LLM API呼び出しに関連する費用が大幅になる可能性があります。さらに、LLMサービスは、特にかなりの数のリクエストを扱う場合、応答時間が遅い場合があります。この課題に取り組むために、LLM応答を保存するためのセマンティックキャッシュを構築するためのプロジェクトであるGPTCacheを作成しました。
github
このPythonスクリプトは、LLM駆動の自律剤の例です。システムは、OpenAI APIを使用して、タスクを作成および実行します。プロジェクトの中心的なアイデアは、アシスタントに、あらゆるタスクを実行するために必要なツールを提供することです。トレーニング前、微調整、または迅速化により、十分にインテリジェントなエージェントのために、コードをarbitrarilyに実行し、独自のフローとメモリを制御できます。これで十分です(可能であれば)。
github
Eval(Langchainを使用した弾性汎用剤)は、すべてのリクエストを実行します。評価方法のように!
ブログ
私が最近尋ねられた質問は、言語モデル(LLM)が機械学習ワークフローをどのように変えるかです。 LLMアプリケーションを扱っており、個人的にウサギの穴を下って私のアプリケーションを構築しているいくつかの企業と協力した後...
github
Chameleonは、さまざまなタイプのツールでLLMを強化するプラグアンドプレイの構成推論フレームワークです。 Chameleonは、LLMモデル、既製のビジョンモデル、Web検索エンジン、Python関数、ユーザーの関心に合わせたルールベースのモジュールなど、さまざまなツールを作成するプログラムを統合します。自然言語プランナーとしてLLMの上に構築されたChameleonは、最終的な応答を生成するために構成および実行するための適切な一連のツールを推進します。
github
大規模な言語モデルのトレーニング、提供、評価のためのオープンプラットフォーム。 VicunaおよびFastChat-T5のリリースをリリースします。
github
ShareGPTから収集されたユーザー共有会話で微調整されたLlamaが訓練したオープンソースのチャットボットであるVicuna-13Bを紹介します。裁判官としてGPT-4を使用した予備的評価は、Vicuna-13BがOpenai ChatGPTとGoogle Bardの品質を90%以上達成しながら、LlamaやStanford Alpacaなどの他のモデルを90%以上のケースで上回ることを示しています。
github
GPT-4の可能性を解き放ち、Ranedeer AI Tutor氏とともに、多様なニーズや関心を持つユーザーにパーソナライズされた学習体験を提供するカスタマイズ可能なプロンプトです。
ブログ
Redpajamaプロジェクトは、一連の主要なオープンソースモデルを作成し、優れたパフォーマンスをもたらす成分を厳密に理解することを目的としています。
github
Redpajama Datasetで訓練されたMeta AiのLlama 7Bの許容免許を許可されたオープンソースの複製であるOpenllamaの公開プレビューをリリースしています。私たちのモデルの重みは、既存の実装におけるLlama 7bの交換の低下として機能します。また、Llamaモデルのより小さな3Bバリアントを提供します。
github
Knowledgeの新しいチャット機能を使用して、よりインタラクティブな学習エクスペリエンスに飛び込みます!大規模な言語モデルの力を活用して、プロジェクトやソースとの動的な会話に従事します。直感的なチャットインターフェイス内で、質問をし、概念を探求し、理解を深めます。
github
MLC LLMは、あらゆる言語モデルを多様なハードウェアバックエンドとネイティブアプリケーションのセットにネイティブに展開できるようにするユニバーサルソリューションに加えて、誰もが独自のユースケースのモデルパフォーマンスをさらに最適化するための生産的なフレームワークです。
github
Google AIがリリースしたインタラクティブな人工知能Google-Bardは、英語、韓国語、日本語を正式にサポートしています。したがって、Google Bardをより適切に使用するためのプロンプトを共有します。 Amazing-Bard-Promptsは、素晴らしいChatgpt-Promptsのフォークであり、Googleの翻訳エンジンで翻訳されています。貢献者は、CSVファイルを変更して、Google Bardに適したプロンプトを編集、レビュー、および提案できます。
github
Openai Cookbookは、OpenAI APIで一般的なタスクを達成するための例のコードを共有しています。
github
ChatGptのような生成AI言語モデルは、人間とAIが相互作用して連携する方法を変えていますが、これらのモデルは実際にどのように機能しますか?このシンプルなガイドで、言語の現代生成AIについて知っておくべきすべてを学びます。
github
SuperAgentは、LLM(大手言語モデル)エージェントの構成と展開を生産する強力なツールです。開発者がベクターDB、強力なツール、Webhooks、Cron Jobsなどを介したメモリの構築やドキュメント検索などの機能を含む、開発者がAIエージェントの構築、管理、展開を制作に容易にするためのさまざまな機能と機能を提供します。
github
開発者ファーストエージェントプラットフォーム - AIエージェントの展開、テスト、監視
github
Zeno Buildは、大規模な言語モデルを使用してアプリケーションを迅速に構築、比較、反復したい開発者向けのツールです。
github
ChatGpt、Bing Chat、Bard、Alpaca、Vincuna、Claude、Chatglm、Moss、Iflytek Spark、Ernieなどと同時にチャットしてください。
github
Fastapiバックエンドとprivateptptの流線ライトUI。 GPTのパワー、100%個人的に、データリークを使用して、WebAppとしてドキュメントと個人的にやり取りします。
github
Googleでは、伝説的なエンジニアであるJeff Deanが、すべてのエンジニアが知っておくべき番号と呼ばれる文書がまとめられました。 LLM開発者がエンベロープの計算に役立つことを知るために、同様の数字のセットを持つことは本当に便利です。ここでは、あらゆるスケールで使用している特定の数字、数字が重要である理由、そしてそれをあなたの利益のために使用する方法を共有します。
github
このチュートリアルでは、ハグするフェイストランスフォーマーとAmazon Sagemakerを使用して、ドキュメントの理解/ドキュメントパージングのためにドーナツベースを微調整および展開する方法を学びます。
Webサイト
Pandagptは、見たり聞いたりできる汎用指導モデルです。私たちのパイロット実験は、Pandagptが詳細な画像の説明の生成、ビデオに触発されたストーリーの作成、オーディオに関する質問への回答などの複雑なタスクを実行できることを示しています。
github
複合性を通じてLLMを使用したアプリケーションを構築します
github
GPTおよびRedis DataStoreによって駆動される無限のコンテキストおよび適応メモリを使用して、ChatGPT APIを複数の同時セッションにスケーリングできます。
github
これは、ChatGPTモデルで使用する迅速な例のコレクションです。
ギルブ
Jarvis、LLMSとMLコミュニティを接続するシステム
github
AIを搭載したソフトウェアを構築するためのバッテリーが含むライブラリ。 Marvinの仕事は、AIを他の機能のように見せたり感じるようにすることで、コードベースに直接統合することです。
github
LlamainDex(GPT Index)は、LLMを外部データに接続するための中央インターフェイスを提供するプロジェクトです。
github
gpt.aを使用したオントロジーと知識の基盤の生成大規模な言語モデルを使用してテキストからセマンティック情報を抽出する知識抽出ツール
ブログ
チャットボットの構築はホットなスキルになり、ChatGPTのリリースにより、膨大な数のチャットアプリケーションがリリースされています。
ブログ
LoraとHugging Faceを使用した効率的な大きな言語モデルトレーニング
github
ChatDoctor:医療ドメインの知識を使用してLlamaモデルで微調整された医療チャットモデル
github
GPT4ALL:コード、ストーリー、対話など、クリーンなアシスタントデータの大規模なコレクションでトレーニングされたオープンソースチャットボットのエコシステム。ラマに基づいた〜800k GPT-3.5ターボ世代のアシスタントスタイルの大手言語モデルをトレーニングするデモ、データ、およびコード
github
このリポジトリには、言語モデルの重みを統合することにより、データレス知識融合の結果を再現するための実験コードが含まれています。これは、2023年5月1〜5日、ルワンダで開催される第11回国際会議(ICLR 2023)で公開される論文です。
github
ガイド、論文、講義、ノートブック、迅速なエンジニアリングのためのリソース
Webサイト
これは、大規模な言語モデル(LLM)を使用してテキストから構造化されたデータを抽出する「役立つ」中途半端なプロトタイプです
github
再トレーニングなしで、ユーザーフィードバックを使用して展開後にGPT-3を修正する方法。
ブログ
この記事では、CHATGPTが概念レベルでどのように機能するか、および知識グラフと比較する方法にさらに焦点を当てています。
github
新しいGPT-4 APIを使用して、複数の大型PDFファイルのChatGPTチャットボットを構築します。
github
このレポは、OpenAIのGPT3モデルを含むLangchainとLage Languageモデル(LLMS)を組み合わせて質問に正確に答えることができる強力な質問応答システムを構築するのに役立ちます。
github
Colossalchatは、Colossal-AI Project.coatiを搭載したRLHFを使用してLLMを実装するプロジェクトです。これは、このプロジェクトで実装されているモジュールの名前であり、Colossalchatプロジェクトによって開発された大規模な言語モデルの名前でもあります。
github
YouTubeプレイリストのOpenAIを搭載したセマンティック検索 - オールインポッドキャストを特徴としています。
github
Sketchは、データのコンテキストを理解しているPandasユーザー向けのAIコード作成アシスタントであり、提案の関連性を大幅に改善します。スケッチは数秒で使用でき、IDEにプラグインを追加する必要はありません。
Webサイト
ShareGPTから収集されたユーザー共有会話で微調整されたLlamaが訓練したオープンソースのチャットボットであるVicuna-13Bを紹介します。裁判官としてGPT-4を使用した予備的評価は、Vicuna-13BがOpenai ChatGPTとGoogle Bardの品質を90%以上達成しながら、LlamaやStanford Alpacaなどの他のモデルを90%以上のケースで上回ることを示しています。
Webサイト
ヘイスタックエコシステムにエージェントを紹介します。エージェントの実装は、MRKLシステムペーパー(「奇跡」と発音)とReact Paperの2つの論文に触発されています。あなたが論文を読むのが好きなら、私はこれら2つを強くお勧めします。ここでは、この機能をHaystackに導入する方法を説明します。
ギルブ
大規模な言語モデルベースのチャットボットをトレーニング、提供、評価するためのオープンプラットフォーム。
Webサイト
LMQLは、言語モデルの相互作用のためのプログラミング言語です。
ギルブ
next.js、openai、およびSupabaseが搭載した独自のChatgptスタイルのドキュメント検索を構築するためのテンプレート。
github
llama.cppライブラリ用のシンプルなPythonバインディング。
Webサイト
ChatGPT、GPT-4、Claudeなどのモデルは、人間のフィードバック(RLHF)からの強化学習と呼ばれる方法を使用して微調整された強力な言語モデルであり、それらが振る舞い、それらを使用することを期待する方法とよりよく調整されます。
Webサイト
データサイエンティスト、エンジニア、アナリストのAIコードライティングアシスタント。入力時にコードの完了と提案を取得します。
github
Visual Studioコード-ChatGpt統合
github
GitHubリポジトリ「GPTCache」は、GPTなどの大規模な言語モデル向けの高性能キャッシュシステムです。中間結果をキャッシュすることにより、GPTモデルの推論の遅延とコストを削減することを目的としています。
ブログ
ブログ投稿では、LlamaindexとLangchainを使用したセマンティック検索の実装について説明します。 LlamainDexは高速でメモリ効率の高いインデックスシステムですが、Langchainはセマンティック検索のためにクエリを埋め込みに変換できる言語モデルです。
github
Auto-GPTは、GPT-4言語モデルの機能を示す実験的なオープンソースアプリケーションです。 GPT-4が推進するこのプログラムは、企業を自律的に開発および管理して純資産を増やします。 GPT-4が完全に自律的に実行される最初の例の1つとして、Auto-GPTはAIで可能なことの境界を押します。
Webサイト
このチュートリアルでは、ラマ(大規模な言語モデルメタAI)を訓練および微調整する方法を学びます。ラマの書き直しであるLit-Llamaは、8 GBの消費者GPUで推論を実行できます。また、Pytorchコードを加速するためにLightning Fabricを使用する方法も発見します。
github
インタラクティブなデータ分析と探索のためのユーザーフレンドリーなインターフェイスを提供します。ユーザーはデータを簡単にフィルタリング、並べ替え、視覚化することができ、機械学習や自然言語処理の機能も含めることができます。
github
GitHubリポジトリ「OpenPlayground」は、機械学習アルゴリズムとニューラルネットワークを探索するためのインタラクティブな遊び場を提供します。事前に構築されたモデルとデータセット、およびカスタムデータとモデルをアップロードする機能が含まれます。
Webサイト
多くの大規模な言語モデル(LLM)とチャットボットが週にリリースされ、多くの場合、パフォーマンスの壮大な主張でリリースされているため、オープンソースコミュニティによって行われている本物の進歩を除外するのは難しい場合があります。 ? Open LLM Leaderboardは、リリースされたLLMSとチャットボットを追跡、ランク付け、評価することを目指しています。 ?このリーダーボードの重要な利点は、コミュニティの誰でも自動評価のためにモデルを提出できることです。 GPUクラスター、それがある限り?ハブにウェイトを備えたトランスモデル。非営利ライセンスモデルのデルタ重量を使用したモデルの評価も、Llamaなどのサポートされています。
このリポジトリへの貢献は歓迎され、奨励されています!言語モデルを使用する興味深いアプリケーションやチュートリアルがある場合は、Pullリクエストをお気軽に送信してください。 AI言語モデルの力を一緒に紹介しましょう!
このリポジトリは、MITライセンスの下でライセンスされています。