END TO END GENERATIVE AI PROJECTS
1.0.0
| s.no | プロジェクト名 | 説明 | 公式レポ | 技術スタック |
|---|---|---|---|---|
| 1 | Multi-PDFS ChatAppAIエージェント? | Langchainを使用して複数のPDFとシームレスにチャットし、Google Gemini Pro&Faiss Vector DBをシームレスな展開して展開します。 Awesome Google Gemini OpenSource Language Modelから即座に正確な応答を取得します。 PDFエクスペリエンスを今すぐ変換してください! | ![]() | F/w: Langchain Model :Google Gemini Pro、 Vector DB :FAISS Deployment :RERICELIT |
| 2 | LLMを使用して、genaiツールをスピーチにimageにimageします | Genai LLMモデルをプロンプトすることにより、アップロードされた画像のコンテキストに基づいてオーディオショートストーリーを生成するAIツール。 | ![]() | F/w: LangChain Model :ハギングフェイスモデル、Openai GPT-3.5、 Vector Deployment :流線、ハグスペース |
| 3 | YouTubeビデオ転写summarizer LLMアプリ | End To End End YouTubeビデオ転写summarizer LLMアプリをGoogle Gemini Proを使用して、YouTubeビデオトランスクリプトに基づいて詳細なメモを提供します。 AIの力により、ビデオトランスクリプトを包括的な研究資料に変換できるようになりました。 | ![]() | Google Gemini Pro |
| 4 | エンドツーエンドラグLLMアプリ | llama2とllamaindexを使用してラグLLMアプリを構築するための段階的なガイド | ![]() | llama2およびllamaindex |
| 5 | LLMプロジェクトを追跡するATSを再開します | これは、採用プロセスを最適化することを目的としたプロジェクトです。高度な応募者追跡システムをGoogle Gemini Proと統合し、履歴書の解析、キーワードマッチング、および候補者の評価を、人材獲得における効率的なエンドツーエンドのソリューションの候補評価を統合します。 | ![]() | Google Gemini Pro |
| 6 | SQLデータベースのクエリとともに、End to End Textto SQL LLMアプリ | 「Google Gemini Proを使用したText to SQL LLMアプリ」は、自然言語クエリのSQLコマンドへの変換を促進するソフトウェアアプリケーションです。また、生成されたSQLコマンドを使用して、SQLデータベースを直接クエリすることもできます。 | ![]() | Google Gemini Proの使用 |
| 7 | エンドツーエンドマルチランゲージ請求書抽出物プロジェクト | 多言語請求書抽出器多言語請求書抽出器のパワーを発見してください! Google Gemini Pro Vision AIを搭載したこの流線アプリは、請求書画像から情報を抽出することを簡単にします。画像をアップロードし、プロンプトを追加し、詳細な応答を簡単に取得します。多言語のサポートがあります。 | ![]() | Google Gemini Proの使用 |
| 8 | PDFドキュメント質問LLMシステムに答える | ![]() | Langchain、Cassandra、Astra DB、Vectorデータベース | |
| 9 | カスタムデータセットを備えたラマ2を微調整します | ![]() | LoRAおよびQLoRAテクニックを使用します | |
| 10 | エンドツーエンドラグLLMアプリ:複数のPDFのインデックス作成とクエリ | ![]() | LlamaindexとOpenaiを使用します | |
| 11 | リアルタイムの金融在庫分析 | ![]() | CrewAI 、 Groq 、 LangChainおよびbrowserless, Serper and SEC EDGAR APIなどの他のAPIを使用 | |
| 12 | 医療チャットボット | LLAMA2 Medical Botは、最先端の言語モデルとベクトルストアを使用してユーザークエリに答えることで医療情報を提供するように設計された強力なツールです。ボットは、最低16GBのRAMを備えたまともなCPUマシンで実行されます。 | ![]() | Llama2とSentence Transformersを使用します。 LangchainとChainlitを搭載しています |
| 13 | 医学的混合専門家LLM | Mergekitを使用した専門家LLMの医療混合。 | ![]() | Mergekit |
| 14 | HaystackおよびMistral 7B RAG実装 | HaystackおよびMistral 7B RAG実装。完全にオープンソーススタックに基づいています。 | ![]() | Haystack-and-mistral-7b-rag |
| 15 | パワーQNAチャットボット | Mistral 7b、Langchain、およびFastapiを使用した質問回答生成アプリ。 | ![]() | Mistral 7b、Langchain、およびFastapi。 |
| 16 | ぼろきれ | gemma-7b-rag-using-ollama | ![]() | gemma-7b-rag-using-ollama |
| 17 | オンデバイスLLM推論 | MediaPipe LLM Incerence APIを使用したデバイスLLM推論。 | ![]() | Mediapipe LLM Incerence APIを使用します。 |
| 18 | Openaiを使用した個人の音声アシスタント | ![]() | ||
| 19 | Unslothを使用したLLMSの高速微調整とDPOトレーニング | ![]() | ||
| 20 | GROQチャットアプリ | GROQ APIとRiremlitを使用して構築されたGROQチャットアプリ。 | ![]() | GROQ APIとRERICELIT。 |
| 21 | バイオミストラル-7bを使用した医療用ラグ | これは、オープンソーススタックを使用したRAG実装です。 Biomistral 7Bは、このアプリを埋め込みモデルとしてPubmedbert、QDRANTとして自己ホストベクターDB、LangChain&Llama CPPとしてオーケストレーションフレームワークとして構築するために使用されています。 | ![]() | RAG実装、Biomistral 7B、PubMedbert、Qdrant、Langchain&Llama CPP |
| 22 | エンドツーエンドのRAG実装を使用して、Amazon Bedrock | ![]() | アマゾンの岩盤 | |
| 23 | SSD-1Bを使用したより速い安定した拡散 | SSD-1Bを使用したより速い安定した拡散。デモ用のグラデーションアプリ。 | ![]() | SSD-1B、グラデーションを使用した安定した拡散 |
| 24 | PHI-2微調整 | PHI-2メンタルヘルスGPTを構築するための微調整。 | ![]() | Phi-2-fine-tuning |
| 25 | Meditron-7B-llmを使用した医療用ラグ | MediTron 7B LLM、QDRANT VECTORデータベース、およびPubMedbert Embeddingモデルを使用した医療用ラグQAアプリ。 | ![]() | Meditron 7B LLM、Qdrant、PubMedbert |
| 26 | LCMロラを使用した最速の画像生成。 | ![]() | ロラ | |
| 27 | Nvidia nimを使用したHydeベースのRAG | ![]() | ハイドベースのRag、Nvidia nim | |
| 28 | Visdum-AIを使用したインテリジェントシステムの構築 | ![]() | visdum-ai | |
| 29 | Zephyr 7b Gradioアプリ内のZephyr 7b ragデモ | Zephyr 7bベータrag begio App内のBGE埋め込み、Chromadb、およびZephyr 7bベータを搭載したグラデーションアプリ内。 | ![]() | Zephyr 7bベータ、rag、gradio、bge埋め込み、Chromadb |
| 30 | ラングチェーン表現言語 | Langchain Expression Languageのイントロ。 | ![]() | lel |
| 31 | 微調整マルチモーダルLLM | ポケモンGOデータセットのファインチューニングマルチモーダルLLM「IDEFICS 9B」は、顔を抱きしめて利用できます。 | ![]() | マルチモーダルLLM "idefics9b" |
| 32 | HayStack、Mistral、およびChainLitを使用したRAGツール | Haystack、Mistral、およびChainLitを使用したRAGツール。 CPU上のすべてのオープンソーススタック。 | ![]() | Rag、Haystack、Mistral、Chainlit |
| 33 | llmlinguaを使用したプロンプト圧縮 | llmlinguaを使用したプロンプト圧縮。トークンのコストと遅延に役立ちます。 | ![]() | プロンプト圧縮、llmlingua |
| 34 | コラブの拡散を流します | ![]() | ||
| 35 | Langchainを使用したマルチモーダルラグ | マルチモーダルラグ使用ラングシーン | ![]() | ラグ、ラングチェーン |
| 36 | 迅速な噴射予防技術を使用したSecure-ai-llmチャットボット | 迅速な噴射および予防技術。 LLMSを使用して構築されたAIチャットボットを保護します。 | ![]() | 迅速な注入、LLMS |
| 37 | 任意のLLMのGGUF量子化 | gguf-quantization-of-any-llm | ![]() | gguf-quantization |
| 38 | ロラを使用したデルタモンアニメ | Deltamon-Anime-Using-Lora | ![]() | ロラ |
| 39 | LLMとぼろきれの評価 | llms and-ragsの評価。理論とコードベースのアプローチをカバーするLLMとぼろを評価するための完全なガイド。 | ![]() | LLMS、ぼろきれ |
| 40 | スロートの微調整 | スロスファインチューニング | ![]() | 眠れない |
| 41 | LLMwareによるスリムモデル | LLMwareによるスリムモデル。 AIエージェントと関数呼び出しの機能を示す流線ライトアプリ。 | ![]() | Slimモデル、LLMware、AIエージェント、機能呼び出し、Riremlit App |
| 42 | 小さなマルチモーダルビジョンモデル | PHI-2およびSiglipを使用して訓練された小さなマルチモーダルビジョンモデル「IMP-V1-3B」。 | ![]() | 小さなマルチモーダルビジョンモデル「IMP-V1-3B」、PHI-2、Siglip |
| 43 | Langsmithの実装 | ラングスミスの実装 | ![]() | ラングスミス |
| 44 | Langserveの実装 | Langserve-Implementation | ![]() | Langserve |
| 45 | LLAVA 7Bとグラデーションを使用したマルチモーダルAIアプリ | LLAVA 7Bとグラデーションを使用したマルチモーダルAIアプリ | ![]() | Llava 7b、グラデーション |
| 46 | 困惑するライト | Langgraph、Tavily、およびGPT-4を使用した困惑のライト。 | ![]() | langgraph、tavilyとgpt-4。 |
| 47 | 生成-AI-llmプロジェクト | Gen AIは大規模な言語モデルプロジェクトを終了します | ![]() | 30+ Gen AI End to End End大規模な言語モデルプロジェクト最新のOpenSourceモデル、微調整 |
| 48 | Musicai | トランスとPytorchを使用したカスタムミュージックジェネレーション | ![]() | トランス、Pytorch |
| 49 | Gemini LLMを使用したオーディオ要約アプリ | Gemini LLMを使用したオーディオ要約アプリ | ![]() | ジェミニ1.5、LLM |
| 50 | Qloraを使用して、マルチモーダルLLM "IDEFICS 2"を微調整します | Qloraを使用して、マルチモーダルLLM "IDEFICS 2"を微調整します。 | ![]() | マルチモーダルLLM "idefics 2"、qlora |
| 51 | llama 3 Orpo Finetuning | llama 3 olpo微調整Colab ProのA100での微調整。 | ![]() | llama 3 orpo |
| 52 | llama3、langchain、およびchromadbを使用したぼろきれ | このプロジェクトは、LLAMA3 LANGCHAINとCHROMADBを利用して、検索拡張生成(RAG)システムを確立します。このシステムは、大規模な言語モデル(LLM)のトレーニングデータに情報が含まれていなくても、ドキュメントについて質問することができます。検索された生成作業は、質問が提示されたときに最初に検索ステップを実行することにより作業を行います。このステップは、ドキュメントがインデックスが付けられている特別なベクトルデータベースから関連するドキュメントを取得します。 | ![]() | llama3、langchain、およびchromadbを使用したぼろきれ |
| 53 | llama-3 70b llm with nvidia | llama3チャットAIアプリに会いましょう! Metaは、これまでで最も強力なオープンソースモデルであるLlama 3を発表します。 llama3チャットボットとシームレスにチャットします。 Awesome Llama3 OpenSource言語モデルから即座に正確な応答を得る | ![]() | llama-3 70b llm with nvidia、streamlit ui |
| 54 | Pytorch FSDPとQ-LoraでLlama 3を効率的に微調整します | Pytorch FSDPとQ-LoraでLlama 3を効率的に微調整します | ![]() | Pytorch FSDPとQ-Loraを備えたLlama 3、微調整 |
| 55 | ?メタllama3 genai Real Worldusecases End to End実装ガイド | llama3 genai usecases | ![]() | Llama3、Finetuning、Deployment、Rag、Langchain |
| 56 | メタのllama3-quantization ??? | llama3-quantization紙の公式実装「低ビットの量子化されたllama3モデルはどれくらい良いですか?」です。ここでは、Llama3の低ビット量子化パフォーマンスを包括的に明らかにするために、1〜8ビットおよび多様なデータセットでLlama3の既存のトレーニング後の量子化とLORA-Finetuningメソッドについて評価が行われます。 | ![]() | 量子化、Generativeai、llama3-meta-ai |
| 57 | Ollama-usecases? | このレポは、オープンソースのオラマから多数のユースケースをもたらします | ![]() | オラマ |
| 58 | AIエージェント? | オートゲン、ラングラフ、タスクウィーバー、クルワイなどなどのマルチエージェントフレームワークの設計パターン | ![]() | Autogen、Langraph、TaskWeaver、Crewaiなどのマルチエージェントフレームワーク |
| 59 | llamaindexとnvidiaを使用したぼろきれ | llamaindexとnvidiaを使用したぼろきれ | ![]() | llamaindexとnvidiaを使用したぼろきれ |
| 60 | AWQを使用してLLMを量子化します | AWQを使用してLLMを量子化します | ![]() | AWQを使用してLLMを量子化します |
| 61 | LLMS推論と微調整 | LLMS推論と微調整のメモリ消費量を推定します | ![]() | LLMS推論と微調整 |
| 62 | MicrosoftによるPHI-3 LLM | Microsoft実装によるPHI-3 LLM | ![]() | PHI-3 LLM |
| 63 | 高度なぼろきれ? | 実用的なノートブックを介して、ラングチェーン、Openai GPTS、Meta llama3、エージェントを使用して、実用的なノートブックを介して高度な検索生成(RAG)を使用しています。 | ![]() | 高度な検索成功世代(RAG)、Langchain、Openai GPTS、Meta Llama3、エージェント。 |
| 64 | ぼろきれ - aws-bedrock-and-azure-openai | ぼろきれ - aws-bedrock-and-azure-openai | ![]() | Rag、AWS-Bedrock、Azure-Openai、生成AI |
| 65 | LLMセキュリティ2024 | トップ10の大規模な言語モデルの脆弱性2024に対してLLMを確保する | ![]() | OWASP、LLMセキュリティ、脆弱性、データセキュリティ、サイバーセキュリティ、生成AI、LLMセキュリティ |
| 66 | gpt4o-api-implementation-gpt4-rag | GPT4 API、GPT4 RAG、Openai GPT4アシスタント、Openaiモデルを開始する | ![]() | Openai-API、GPT-4、大言語モデル、生成-AI、GPT4-API、GPT4O |
| 67 | パリゲンマ推論と微調整 | パリゲンマ推論と微調整 | ![]() | パリゲンマ、推論、微調整、生成 - ai |
| 68 | LLMS評価 | LLMS評価 | ![]() | LLMS評価、生成AI |
| 69 | Objectboxベクトルデータベースを使用して、Openai GPT-4O(OMNI)モデルを使用してぼろを構築します | Objectboxベクトルデータベースを使用して、Openai GPT-4O(OMNI)モデルを使用してぼろを構築します | ![]() | Rag、Openai GPT-4O(OMNI)モデル、MobjectBox Vectorデータベース |
| 70 | Paligemma Finetuning | Paligemma Finetuning | ![]() | パリゲンマ、微調整 |
| 71 | ラグ評価者 | 検索された生成(RAG)システムを評価するためのライブラリ | ![]() | RAG評価者、メトリック:Bleu、Rouge、Bert、困惑、多様性、人種バイアス |
| 72 | Griptape:カスタマイズ可能なマルチAIエージェントをゼロから作成します | Griptape:カスタマイズ可能なマルチAIエージェントをゼロから作成します | ![]() | エージェントベースのフレームワーク、Griptape、LLM、Generative-Ai、Aiagents |
| 73 | LLMを使用した合成データ生成 | Argilla、Distilabel、ChatGptなどを介してLLMを使用した合成データ生成。 | ![]() | 合成データ生成、LLM、Argilla、Distilabel、ChatGpt |
| 74 | GROQ-Whisper高速転写アプリ | GROQ APIとstreamlitを使用して構築されたGROQ-Whisper高速転写アプリ | ![]() | GROQ-WHISPER、LLM、STREERLIT |
| 75 | CREWAI Agentops | Crewai Agentops:AIエージェントを監視します | ![]() | Agentops、Generative-Ai、Crewai、Aiagents |
| 76 | 乗組員AIを使用したエージェントラグ | 乗組員AIを使用したエージェントラグ | ![]() | Rag、Generative-Ai、Crewai、Aiagents、Agentic-Rag、Agentic-Ai、Crewai-rag |
| 77 | 乗組員AIを使用するAIエージェント | AIエージェントクルーAIを使用したretryligtアプリ | ![]() | AIエージェント、Restrylit App、Generativeai、Crew AI |
| 78 | マルチGPUファイントレーニングLLMS | DeepSpeedと加速を使用したマルチGPUファイントレーニングLLM。 | ![]() | 加速、GPUコンピューティング、微調整、ディープスピード、ラージランゲージモデル、生成-AI |
| 79 | LLMベースの財務エージェント | 自動化された金融ニュースの検索と株価予測に大規模な言語モデル(LLM)を利用するインテリジェントエージェント。 | ![]() | エージェントベース、Finance-API、LLMS、Generative-AI、Gemini-Pro |
| より多くのプロジェクトリストが来ています... !!! |
MITライセンスの下で配布されます。詳細については、 LICENSE参照してください。