END TO END GENERATIVE AI PROJECTS
1.0.0
| S.no | Projektname | Beschreibung | Offizielles Repo | Tech Stack |
|---|---|---|---|---|
| 1 | Multi-PDFS-Chatapp-AI-Agent? | Chatten Sie nahtlos mit mehreren PDFs mit Langchain, Google Gemini Pro & Faiss Vector DB mit nahtloser Stromanlage. Erhalten Sie sofortige, genaue Antworten vom fantastischen Google Gemini OpenSource -Sprachmodell. Verwandeln Sie jetzt Ihre PDF -Erfahrung! | ![]() | F/w: Langchain Model : Google Gemini Pro, Vector DB : FAISS Deployment : Streamlit |
| 2 | ? ️T zum Sprach -Genai -Tool mit LLM? ♨️ | AI -Tool, das eine Audio -Kurzgeschichte generiert, die auf dem Kontext eines hochgeladenen Bildes basiert, indem ein Genai -LLM -Modell aufgefordert wird. | ![]() | F/w: Langchain Model : Huggingface-Modelle, OpenAI GPT-3.5, Vector Deployment : Streamlit, Umarmungsräume |
| 3 | YouTube Video Transcribe Summariizer LLM App | End -to -End -YouTube -Video -Transkribe -Summarizer LLM -App mit Google Gemini Pro Bereitstellung detaillierter Notizen basierend auf YouTube -Video -Transkripten. Mit der Kraft der KI können Sie jetzt Video -Transkripte in umfassende Lernmaterialien umwandeln. | ![]() | Google Gemini Pro |
| 4 | End -to -End -LLM -App | Schritt-für-Schritt | ![]() | Llama2 und llamaindex |
| 5 | Lebenslauf ATS Tracking LLM -Projekt | Dies ist ein Projekt, das darauf abzielt, den Rekrutierungsprozess zu optimieren. Es integriert ein fortschrittliches Bewerber-Tracking-System in Google Gemini Pro, in dem die Lebenslauf-Parsing, das Keyword-Matching und die Bewertung der Kandidaten für eine effiziente End-to-End-Lösung bei der Erwerb von Talenten optimiert werden. | ![]() | Google Gemini Pro |
| 6 | End -to -End -Text mit der SQL LLM -App zusammen mit der Abfrage der SQL -Datenbank | Die "Text zu SQL LLM -App mit Google Gemini Pro" ist eine Softwareanwendung, die die Umwandlung natürlicher Sprachabfragen in SQL -Befehle erleichtert. Außerdem können SQL -Datenbanken mit den generierten SQL -Befehlen direkt abfragen. | ![]() | Verwenden von Google Gemini Pro |
| 7 | End -to -End -Multi -Language -Rechnungs -Extraktorprojekt | Multilanguage -Rechnungsextraktor entdecken Sie die Leistung des Multilanguage -Rechnungsextraktors! Diese von Google Gemini Pro Vision AI betriebene Stromlit -App macht das Extrahieren von Informationen aus Rechnungsbildern zum Kinderspiel. Laden Sie Bilder hoch, fügen Sie Eingabeaufforderungen hinzu und erhalten Sie mühelos detaillierte Antworten. Mit mehrsprachiger Unterstützung. | ![]() | Verwenden von Google Gemini Pro |
| 8 | PDF -Dokument Frage Beantwortung des LLM -Systems | ![]() | Langchain, Cassandra, Astra DB, Vector -Datenbank | |
| 9 | Fine Tune llama 2 mit benutzerdefiniertem Datensatz | ![]() | Verwendung von LoRA und QLoRA -Techniken | |
| 10 | End -to -End -LLM -App: Indexierung und Abfrage mehrerer PDFs | ![]() | Verwenden von Lamaindex und OpenAI | |
| 11 | Echtzeit -Finanzbestandsanalyse | ![]() | Mit CrewAI , Groq , LangChain und einigen anderen APIs wie browserless, Serper and SEC EDGAR API | |
| 12 | Medizinischer Chatbot | Der LLAMA2 Medical Bot ist ein leistungsstarkes Tool, das medizinische Informationen bereitstellt, indem Benutzeranfragen mit hochmodernen Sprachmodellen und Vektorspeichern beantwortet werden. Der Bot läuft auf einer anständigen CPU -Maschine mit mindestens 16 GB RAM. | ![]() | Verwenden von Llama2 und Sentence Transformers . Angetrieben von Langchain und Chainlit |
| 13 | Medizinische Mischung von Experten LLM | Medizinische Mischung von Experten LLM mit Mergekit. | ![]() | Mergekit |
| 14 | Haystack und Mistral 7B Rag -Implementierung | Haystack und Mistral 7B Rag -Implementierung. Es basiert auf völligem Open-Source-Stack. | ![]() | Haystack-and-Mistal-7b-Rag |
| 15 | Power QNA Chatbot | Frage -Antwort -Generierungs -App mit Mistral 7B, Langchain und Fastapi. | ![]() | Mistral 7B, Langchain und Fastapi. |
| 16 | LAPPEN | Gemma-7b-Rag-Us-Us-Oltama | ![]() | Gemma-7b-Rag-Us-Us-Oltama |
| 17 | On-Device LLM-Inferenz | On-Device LLM-Inferenz mit MediaPipe LLM-Inferenz-API. | ![]() | Verwenden von MediaPipe LLM -Inferenz -API. |
| 18 | Personal Voice Assistent mit OpenAI | ![]() | ||
| 19 | Schnelle Feinabstimmung und DPO -Training von LLMs mit Unloth | ![]() | ||
| 20 | GROQ CHAT -App | COQ -Chat -App, die mit GROQ API und Streamlit erstellt wurde. | ![]() | GROQ -API und Strom. |
| 21 | Medizinischer Lappen mit Bio-MISTRAL-7B | Dies ist eine Lag -Implementierung mit Open Source Stack. Biomistral 7b wurde verwendet, um diese App zusammen mit PubMedbert als Einbettungsmodell, QDrant als selbst gehostete Vektor DB und Langchain & Llama CPP als Orchestrierungsrahmen zu erstellen | ![]() | RAG -Implementierung, Biomistral 7B, PubMedbert, Qdrant, Langchain & Llama CPP |
| 22 | End-to-End-Lag-Implementierung-Amazon-Grundgestein einsetzt | ![]() | Amazonas Grundgestein | |
| 23 | Schnellere stabile Diffusion mit SSD-1B | Schnellere stabile Diffusion unter Verwendung von SSD-1B. Eine Gradio -App für Demo. | ![]() | Stabile Diffusion unter Verwendung von SSD-1B, Gradio |
| 24 | PHI-2-Feinabstimmung | PHI-2-Feinabstimmung zum Aufbau eines GPT für psychische Gesundheit. | ![]() | PHI-2-FINE-TUN |
| 25 | Medizinischer Lappen mit Meditron-7b-Llm | Medizinische Lag -QA -App unter Verwendung von Meditron 7B LLM, QDrant Vector -Datenbank und PubMedbert -Einbettungsmodell. | ![]() | Meditron 7b LLM, Qdrant, PubMedbert |
| 26 | Schnellste Bildgenerierung mit LCM Lora. | ![]() | Lora | |
| 27 | Hyde -basierter Lappen unter Verwendung von Nvidia nim | ![]() | HEYDE -Basis Rag, Nvidia nim | |
| 28 | Bauen intelligenter Systeme mit Visdum-ai | ![]() | Visdum-ai | |
| 29 | Zephyr 7b Beta Rag Demo in einer Gradio -App | Zephyr 7B Beta Rag -Demo in einer Gradio -App, die von BGE -Einbettungen, Chromadb und Zephyr 7b Beta betrieben wird. | ![]() | Zephyr 7b Beta, Rag, Gradio, BGE -Einbettungen, Chromadb |
| 30 | Langchain Expressionssprache | Intro in Langchain Expressionssprache. | ![]() | Lel |
| 31 | Fine Tuning Multimodal LLM | Fine Tuning Multimodal LLM "IDEFICS 9B" auf Pokemon Go -Datensatz im Umarmungsgesicht verfügbar. | ![]() | Multimodal LLM "IDEFICS 9B" |
| 32 | Lappenwerkzeug mit Haystack, Mistral und Kettenbeleuchtung | Lappenwerkzeug mit Heuheuge, Mistral und Kettenbeleuchtung. Alle Open -Source -Stapel auf der CPU. | ![]() | Lumpen, Heuhaufen, Mistral, Kettenbeleuchtung |
| 33 | Schnellkomprimierung mit Llmlingua | Schnellkomprimierung mit Llmlingua. Es hilft bei den Kosten und der Latenz von Token. | ![]() | Prompt Komprimierung, llmlingua |
| 34 | Streamdiffusion in Colab | ![]() | ||
| 35 | Multimodale Rag unter Verwendung von Langchain | Multimodal-Rag-Us-Langchain | ![]() | Lag, Langchain |
| 36 | Secure-AI-Llm-Chatbots mit schnellen Injektionspräventionstechniken | Schnelle Injektions- und Präventionstechniken. Sichern Sie Ihre AI -Chatbots, die mit LLMs erstellt wurden. | ![]() | Prompt Injektion, LLMs |
| 37 | GGUF -Quantisierung von LLM | GGUF-Quantisierung von Any-Llm | ![]() | GGUF-Quantisierung |
| 38 | Deltamon -Anime mit Lora | Deltamon-Anime-Use-Lora | ![]() | Lora |
| 39 | Bewertung von LLMs und Lumpen | Bewertung von Llms and Rags. Ein vollständiger Leitfaden zur Bewertung von LLMs und Lumpen, die Theorie und codebasierte Ansätze abdecken. | ![]() | LLMs, Lumpen |
| 40 | Feinstimmend | Unloth-Fine-Tuning | ![]() | Nicht sloth |
| 41 | Slim -Modelle von LLMware | Slim -Modelle von LLMware. Eine stromlitische App, die die Funktionen für AI -Agenten und Funktionsaufrufe zeigt. | ![]() | Slim Models, LLMware, AI -Agenten, Funktionsaufrufe, Streamlit -App |
| 42 | Kleines multimodales Sehmodell | Kleines multimodales Sehmodell "Imp-V1-3B", das mit PHI-2 und Siglip trainiert wurde. | ![]() | Kleines multimodales Sehmodell "Imp-V1-3b", Phi-2, Siglip |
| 43 | Langsmith -Implementierung | Langsmith-Implementierung | ![]() | Langsmith |
| 44 | Langserve -Implementierung | Langserve-Implementierung | ![]() | Langserve |
| 45 | Multimodale AI -App mit LLAVA 7B und Gradio | Multimodale AI -App mit LLAVA 7B und Gradio | ![]() | Llava 7b, Gradio |
| 46 | Verwirrung Lite | Verwirrung Lite mit Langgraph, Tavily und GPT-4. | ![]() | Langgraph, Tavily und GPT-4. |
| 47 | Generative-ai-llm-projekte | Gen ai endet großes Sprachmodellprojekte | ![]() | 30+ Gen AI End -to -End -Modellprojekte für Großsprachen mit neuesten OpenSource -Modellen, Feinabstimmung |
| 48 | Musicai | Benutzerdefinierte Musikgenerierung mit Transformatoren und Pytorch | ![]() | Transformers, Pytorch |
| 49 | Audio -Zusammenfassung App mit Gemini LLM | Audio -Zusammenfassung App mit Gemini LLM | ![]() | Gemini 1.5, LLM |
| 50 | Fine Tune Multimodal LLM "idefics 2" mit Qlora | Fine Tune Multimodal LLM "idefics 2" mit Qlora. | ![]() | Multimodaler LLM "idefics 2", Qlora |
| 51 | Lama 3 Orpo -Finetuning | Lama 3 Orpo Feinabstimmung auf A100 in Colab Pro. | ![]() | Lama 3 Orpo |
| 52 | Lappen mit LLAMA3, Langchain und Chromadb | In diesem Projekt werden LLAMA3 Langchain und Chromadb verwendet, um ein RAG -System (Abruf Augmented Generation) zu etablieren. Dieses System ermöglicht es Ihnen, Fragen zu Ihren Dokumenten zu stellen, auch wenn die Informationen nicht in den Trainingsdaten für das große Sprachmodell (LLM) enthalten waren. Abrufener Augmented -Generation funktioniert, indem er zuerst einen Abrufschritt ausführt, wenn er eine Frage präsentiert. Dieser Schritt holt relevante Dokumente aus einer speziellen Vektor -Datenbank, in der die Dokumente indiziert wurden. | ![]() | Lappen mit LLAMA3, Langchain und Chromadb |
| 53 | LAMA-3 70B LLM mit Nvidia | Treffen Sie Llama3 Chat AI App! Meta enthüllt Llama 3, das bisher mächtigste Open -Source -Modell. Chatten Sie nahtlos mit Lama3 Chatbot. Holen Sie sich sofortige, genaue Antworten von Awesome Lama3 OpenSource Sprachmodell | ![]() | LLAMA-3 70B LLM mit Nvidia, stromlitische Benutzeroberfläche |
| 54 | Effizient Fine-Tune Llama 3 mit Pytorch FSDP und Q-Lora | Effizient Fine-Tune Llama 3 mit Pytorch FSDP und Q-Lora | ![]() | Lama 3 mit Pytorch FSDP und Q-Lora, Feinabstimmung |
| 55 | "Meta llama3 Genai Real World Usecasen endet die Implementierungsleitfäden | Llama3 genai usecasen | ![]() | LLAMA3, Finetuning, Einsatz, Lappen, Langchain |
| 56 | Metas llama3-Quantisierung ??? | LLAMA3-Quantisierung ist die offizielle Implementierung von Papier "Wie gut sind niedrig-bit quantisierte LLAMA3-Modelle?". Hier erfolgt die Bewertung an den 10 vorhandenen Methoden der Quantisierung und Lora-Finetuning nach der Ausbildung von LLAMA3 auf 1-8 Bit und verschiedenen Datensätzen, um die Leistung von Llama3s niedrigem Bit-Quantisierungsleistung umfassend anzuzeigen. | ![]() | Quantisierung, generativeai, llama3-meta-ai |
| 57 | Ollama-USECasen? | Dieses Repo bringt zahlreiche Anwendungsfälle aus der Open -Source -Ollama | ![]() | Ollama |
| 58 | KI -Agenten? | Entwurfsmuster für Multi -Agenten -Frameworks wie Autogen, Langraph, Taskweaver, Crewai usw. | ![]() | Multi -Agenten -Frameworks wie Autogen, Langraph, Taskweaver, Crewai |
| 59 | Lappen mit Llamaindex und Nvidia | Lappen mit Llamaindex und Nvidia | ![]() | Lappen mit Llamaindex und Nvidia |
| 60 | LLM mit AWQ quantisieren | LLM mit AWQ quantisieren | ![]() | LLM mit AWQ quantisieren |
| 61 | LLMS -Inferenz und Feinabstimmung | Schätzen Sie den Speicherverbrauch von LLMs -Inferenz und Feinabstimmung ab | ![]() | LLMS -Inferenz und Feinabstimmung |
| 62 | PHI-3 LLM von Microsoft | PHI-3 LLM durch Microsoft-Implementierung | ![]() | Phi-3 llm |
| 63 | Fortgeschrittener Lappen? | Advanced Retrieval-Augmented Generation (LAG) durch praktische Notizbücher unter Verwendung der Kraft der Langchain, OpenAI GPTs, Meta Llama3, Agenten. | ![]() | Advanced Retrieval-Augmented Generation (LAG), Langchain, OpenAI GPTs, Meta Llama3, Agenten. |
| 64 | Rag-Use-Aws-Bedrock-and-Azure-Openai | Rag-Use-Aws-Bedrock-and-Azure-Openai | ![]() | RAG, AWS-BEDROCK, Azure-Openai, generative KI |
| 65 | LLM Security 2024 | Sicherung von LLMs gegen Top 10 Owasp große Sprachmodell -Schwachstellen 2024 | ![]() | OWASP, LLM -Sicherheit, Sicherheitsanfälligkeit, Datensicherheit, Cybersicherheit, Generative AI, LLM -Sicherheit |
| 66 | GPT4O-API-Implementation-GPT4-Rag | Erste Schritte mit GPT4 API, GPT4 RAG, OpenAI GPT4 Assistant, OpenAI -Models | ![]() | Openai-API, GPT-4, Großsprage-Modelle, Generativ-AI, GPT4-API, GPT4O |
| 67 | Paligemma -Inferenz und Feinabstimmung | Paligemma -Inferenz und Feinabstimmung | ![]() | Paligemma, Inferenz, Feinabstimmung, generativ-ai-ai |
| 68 | LLMS -Bewertung | LLMS -Bewertung | ![]() | LLMS -Bewertung, generative KI |
| 69 | Erstellen von Lappen mit OpenAI GPT-4O (OMNI) -Modell mit der Objektbox-Vektor-Datenbank | Erstellen von Lappen mit OpenAI GPT-4O (OMNI) -Modell mit der Objektbox-Vektor-Datenbank | ![]() | RAG, OpenAI GPT-4O (OMNI) -Modell, Mobjectbox Vector-Datenbank |
| 70 | Paligemma -Finetuning | Paligemma -Finetuning | ![]() | Paligemma, Finetuning |
| 71 | Lappenbewerter | Eine Bibliothek zur Bewertung von RAG-Systemen (Abruf-Augmented Generation) | ![]() | Rag -Bewerter, Metriken: Bleu, Rouge, Bert, Verwirrung, Vielfalt, Rassenverzerrung |
| 72 | Griptape: Erstellen Sie anpassbare Multi -AI -Agenten von Grund auf neu | Griptape: Erstellen Sie anpassbare Multi -AI -Agenten von Grund auf neu | ![]() | Agentenbasierte Framework, Griptape, LLM, Generativ-AI, Aiagents |
| 73 | Synthetische Datengenerierung unter Verwendung von LLM | Synthetische Datengenerierung unter Verwendung von LLM über Argilla, Distilabel, Chatgpt usw. | ![]() | Synthetische Datengenerierung, LLM, Argilla, Distilabel, Chatgpt |
| 74 | GROQ-Whisper Fast Transcription App | COQ-Whisper Fast Transkription App, die mit GROQ API und Streamlit erstellt wurde | ![]() | GROQ-WHIPER, LLM, Stromlit |
| 75 | Crewai Agentops | Crewai Agentops: Überwachen Sie Ihre KI -Agenten | ![]() | Agentops, Generativ-AI, Crewai, Aiagenten |
| 76 | Agentenlappen mit Crew AI | Agentenlappen mit Crew AI | ![]() | Rag, Generative-AI, Crewai, Aiagents, Agentic-Rag, Agentic-AI, Crewai-Rag |
| 77 | KI -Agenten, die Crew AI verwenden | AI -Agenten stromlit -App mit Crew AI | ![]() | AI -Agenten, Stromlit -App, GenerativeAI, Crew AI |
| 78 | Multi GPU Fine Training LLMs | Multi GPU Fine Training LLMs mit Deepspeed und Beschleunigung. | ![]() | Beschleunigung, GPU-Komputierung, Finetuning, Deepspeed, großsprachige Modelle, Generativ-AI |
| 79 | LLM -basierter Finanzagent | Ein intelligenter Agent, der große Sprachmodelle (LLMs) für automatisierte Finanznachrichten Abruf und Aktienkursvorhersage nutzt. | ![]() | Agentenbasiert, Finanzen-API, LLMs, Generative-AI, Gemini-Pro |
| Weitere Projektliste kommt ... !!! |
Unter der MIT -Lizenz verteilt. Weitere Informationen finden Sie LICENSE .