END TO END GENERATIVE AI PROJECTS
1.0.0
| S.No | Nom du projet | Description | Repo officiel | Pile technologique |
|---|---|---|---|---|
| 1 | Multi-PDFS ChatApp AI Agent? | Chat de manière transparente avec plusieurs PDF à l'aide de Langchain, Google Gemini Pro & Faiss Vector DB avec déploiement de rationalisation transparente. Obtenez des réponses instantanées et précises du modèle de langage Google Gemini OpenSource impressionnant. Transformez votre expérience PDF maintenant! | ![]() | F/w: Model de Langchain: Google Gemini Pro, Vector DB : FAISS Deployment : rational |
| 2 | ? ️-Image à l'outil Genai de la parole à l'aide de LLM? ♨️ | L'outil AI qui génère une nouvelle audio basée sur le contexte d'une image téléchargée en invitant un modèle Genai LLM. | ![]() | F/w: Model de Langchain: Modèles de câlins, Openai GPT-3.5, Vector Deployment : rational, espaces de câlins |
| 3 | YouTube Video Transcribe Summarizer LLM App | End To End YouTube Video Transcribe Summarizer LLM App avec Google Gemini Pro fournissant des notes détaillées basées sur les transcriptions vidéo YouTube. Avec la puissance de l'IA, vous pouvez désormais convertir les transcriptions vidéo en documents d'étude complets. | ![]() | Google Gemini Pro |
| 4 | Application de fin à fin Rag LLM | Guide étape par étape pour construire une application Rag LLM avec Llama2 et Llamaindex | ![]() | Llama2 et llamaindex |
| 5 | Reprendre le projet LLM de suivi ATS | Il s'agit d'un projet visant à optimiser le processus de recrutement. Il intègre un système de suivi des candidats avancés avec Google Gemini Pro, rationalisation de l'analyse de curriculum vitae, correspondance des mots clés et évaluation des candidats pour une solution efficace de bout en bout dans l'acquisition de talents. | ![]() | Google Gemini Pro |
| 6 | Texte de bout en bout vers l'application SQL LLM ainsi que la base de données SQL interrogeant | L'application "Text à SQL LLM avec Google Gemini Pro" est une application logicielle qui facilite la conversion des requêtes en langage naturel en commandes SQL. Il permet également de remettre en question les bases de données SQL directement à l'aide des commandes SQL générées. | ![]() | Utilisation de Google Gemini Pro |
| 7 | Projet d'extracteur de facture multi-langues de bout en bout | Extracteur de factures multiples découvrir la puissance de l'extracteur de facture multi-plats! Cette application rationalisée, alimentée par Google Gemini Pro Vision AI, fait de l'extraction d'informations des images de facture une brise. Télécharger des images, ajouter des invites et obtenir des réponses détaillées sans effort. Avec support multi-langues. | ![]() | Utilisation de Google Gemini Pro |
| 8 | Question de document PDF Réponse au système LLM | ![]() | Langchain, Cassandra, Astra DB, base de données vectorielle | |
| 9 | Fine Tune Llama 2 avec ensemble de données personnalisé | ![]() | Utilisation de techniques LoRA et QLoRA | |
| 10 | Application de fin à fin RAG LLM: indexation et interrogatoire multiples PDF | ![]() | Utilisation de Llamaindex et Openai | |
| 11 | Analyse des stocks financiers en temps réel | ![]() | Utilisation CrewAI , Groq , LangChain et quelques autres API comme browserless, Serper and SEC EDGAR API | |
| 12 | Chatbot médical | Le bot médical LLAMA2 est un outil puissant conçu pour fournir des informations médicales en répondant aux requêtes des utilisateurs à l'aide de modèles de langue et de magasins de vecteurs de pointe. Le bot fonctionne sur une machine CPU décente avec un minimum de 16 Go de RAM. | ![]() | Utilisation de Llama2 et Sentence Transformers . Propulsé par Langchain et Chainlit |
| 13 | Mélange médical d'experts LLM | Mélange médical d'experts LLM utilisant Mergekit. | ![]() | Fusionner |
| 14 | Back de foin et mistral 7b Rag Implémentation | FOCHT BACK ET MISTRAL 7B RAG IMPÉSISATION. Il est basé sur la pile entièrement open source. | ![]() | Sac à foin et-missage-7b-rag |
| 15 | Power QNA chatbot | Question Réponse Génération de l'application Utilisation de Mistral 7B, Langchain et Fastapi. | ![]() | Mistral 7b, Langchain et Fastapi. |
| 16 | CHIFFON | GEMMA-7B-RAG-USING-ELLAMA | ![]() | GEMMA-7B-RAG-USING-ELLAMA |
| 17 | Inférence LLM à disposition | Inférence LLM à disposition à l'aide de l'API d'inférence Mediapipe LLM. | ![]() | Utilisation de l'API d'inférence Medioppe LLM. |
| 18 | Assistant vocal personnel utilisant Openai | ![]() | ||
| 19 | Réglage rapide et formation DPO de LLMS en utilisant un non | ![]() | ||
| 20 | Application de chat Groq | Application de chat Groq construite à l'aide de l'API GROQ et du rationalisation. | ![]() | API GROQ et rationalisation. |
| 21 | Chiffon médical utilisant la bio-missural-7b | Il s'agit d'une implémentation de chiffon à l'aide de la pile open source. Biomistral 7B a été utilisé pour construire cette application avec PubMedbert en tant que modèle d'intégration, Qdrant en tant que DB de vecteur auto-hébergé, et Langchain & Llama CPP en tant que cadres d'orchestration | ![]() | Implémentation de RAG, Biomistral 7B, PubMedbert, Qdrant, Langchain & Llama CPP |
| 22 | Bouilloire de bout en bout de la rafle | ![]() | Bouilloire Amazon | |
| 23 | Diffusion stable plus rapide à l'aide de SSD-1B | Diffusion stable plus rapide à l'aide de SSD-1B. Une application Gradio à l'intérieur pour la démo. | ![]() | Diffusion stable en utilisant SSD-1B, Gradio |
| 24 | Phi-2 fin | PHI-2 Fine réglage pour construire un GPT de santé mentale. | ![]() | Phi-2-fin |
| 25 | Rag médical utilisant Meditron-7b-llm | L'application QA de chiffon médical utilisant Meditron 7B LLM, la base de données vectorielle QDRANT et le modèle d'intégration de PubMedbert. | ![]() | Meditron 7b LLM, Qdrant, PubMedbert |
| 26 | Génération d'images la plus rapide à l'aide de LCM LORA. | ![]() | Lora | |
| 27 | Rag à base de hyde utilisant nvidia nim | ![]() | Rag basé sur Hyde, Nvidia Nim | |
| 28 | Construire des systèmes intelligents utilisant Visdum-AI | ![]() | Visdum-ai | |
| 29 | Zephyr 7b Beta Rag Demo à l'intérieur d'une application Gradio | Zephyr 7b Beta Rag Demo à l'intérieur d'une application Gradio propulsée par BGE Embeddings, ChromAdb et Zephyr 7B Beta. | ![]() | Zephyr 7b Beta, Rag, Gradio, BGE Embeddings, Chromadb |
| 30 | Langage d'expression de Langchain | Intro au langage d'expression de Langchain. | ![]() | Lel |
| 31 | Fine tuning Multimodal LLM | Fine Tuning Multimodal LLM "IDEFICS 9B" sur le jeu de données Pokemon GO disponible sur la face des câlins. | ![]() | LLM multimodal "idefics 9b" |
| 32 | Outil de chiffon utilisant la botte de foin, Mistral et Chainlit | Outil de chiffon utilisant la botte de foin, le Mistral et le Chainlit. Toute la pile open source sur CPU. | ![]() | Rag, botte de foin, Mistral, Chainlit |
| 33 | Compression rapide à l'aide de llmlingua | Compression rapide à l'aide de llmlingua. Il aide au coût et à la latence de Token. | ![]() | Compression rapide, llmlingua |
| 34 | Diffusion de flux dans Colab | ![]() | ||
| 35 | RAGE multimodal utilisant Langchain | Multimodal-Rag-Using-Langchain | ![]() | Rag, Langchain |
| 36 | Chatbots sécurisés-ai-llm utilisant des techniques de prévention des injections rapides | Techniques d'injection et de prévention rapides. Sécurisez vos chatbots AI construits à l'aide de LLMS. | ![]() | Injection rapide, LLMS |
| 37 | Quantification GGUF de tout LLM | Gguf-quantation-of-any llm | ![]() | Quant à la gguf |
| 38 | Anime deltamon utilisant Lora | Deltamon-anime-using-lora | ![]() | Lora |
| 39 | Évaluation des LLM et des chiffons | Évaluation des llms-et-rags. Un guide complet pour évaluer les LLM et les chiffons couvrant la théorie et les approches basées sur le code. | ![]() | LLMS, chiffons |
| 40 | Notant du réglage fin | Peu à peu de fin | ![]() | Insolite |
| 41 | Modèles minces par llmware | Modèles Slim par LLMware. Une application rationalisée montrant les capacités des agents AI et des appels de fonction. | ![]() | Modèles minces, llmware, agents AI, appels de fonction, application rationalisée |
| 42 | Petit modèle de vision multimodale | Petit modèle de vision multimodale "IMP-V1-3B" formé à l'aide de PHI-2 et Siglip. | ![]() | Small Multimodal Vision Model "Imp-V1-3B", PHI-2, Siglip |
| 43 | Implémentation Langsmith | Langsmith-implémentation | ![]() | Langsmith |
| 44 | Implémentation de Langserve | Implémentation Langserve | ![]() | Langage |
| 45 | Application AI multimodale utilisant LLAVA 7B et Gradio | Application AI multimodale utilisant LLAVA 7B et Gradio | ![]() | Llava 7b, gradio |
| 46 | Perplexité lite | Perplexity Lite à l'aide de Langgraph, Tavily et GPT-4. | ![]() | Langgraph, Tavily et GPT-4. |
| 47 | Projets génératifs-ai-llm | Gen AI de bout en bout des projets de modèles de langues | ![]() | 30+ Gen AI de bout en bout des grands projets de modèle avec les derniers modèles OpenSource, réglage fin |
| 48 | Musicai | Génération de musique personnalisée avec transformateurs et pytorch | ![]() | Transformateurs, pytorch |
| 49 | Application de résumé audio utilisant Gemini LLM | Application de résumé audio utilisant Gemini LLM | ![]() | Gemini 1.5, LLM |
| 50 | Fine Ting Multimodal LLM "Idefics 2" en utilisant Qlora | Fine Ting Multimodal LLM "IDEFICS 2" en utilisant Qlora. | ![]() | Multimodal LLM "Idefics 2", Qlora |
| 51 | Llama 3 Orpo Finetuning | LLAMA 3 ORPO Fine Tuning sur A100 dans Colab Pro. | ![]() | Llama 3 Orpo |
| 52 | Chiffon utilisant Llama3, Langchain et Chromadb | Ce projet utilise Llama3 Langchain et ChromAdb pour établir un système de génération augmentée (RAG) de récupération. Ce système vous permet de poser des questions sur vos documents, même si les informations n'ont pas été incluses dans les données de formation pour le modèle de grande langue (LLM). La génération augmentée de récupération fonctionne en effectuant d'abord une étape de récupération lorsqu'elle est présentée avec une question. Cette étape récupère les documents pertinents d'une base de données vectorielle spéciale, où les documents ont été indexés. | ![]() | Chiffon utilisant Llama3, Langchain et Chromadb |
| 53 | LLAMA-3 70B LLM avec Nvidia | Rencontrez l'application LLAMA3 Chat AI! Meta dévoile Llama 3, le modèle open source le plus puissant à ce jour. Chat de manière transparente avec le chatbot lama3. Obtenez des réponses instantanées et précises du modèle de langue OpenSource Awesome Llama3 | ![]() | LLAMA-3 70B LLM avec nvidia, rational UI |
| 54 | Affinement efficace Llama 3 avec Pytorch FSDP et Q-Lora | Affinement efficace Llama 3 avec Pytorch FSDP et Q-Lora | ![]() | Llama 3 avec Pytorch FSDP et Q-Lora, réglage fin |
| 55 | ? Meta Llama3 Genai Real World Usecases de fin | LLAMA3 GENAI USECASES | ![]() | LLAMA3, Finetuning, déploiement, chiffon, Langchain |
| 56 | META'S LLAMA3-Quantisation ??? | LLAMA3-Quantisation est la mise en œuvre officielle du papier "Quelle est la qualité des modèles LLAMA3 quantifiés à faible teneur?". Ici, l'évaluation se fait sur les 10 méthodes de quantification post-entraînement et LORA existantes de LLAMA3 sur 1 à 8 bits et divers ensembles de données pour révéler de manière approfondie les performances de quantification faible de LLAMA3. | ![]() | Quantification, Generativeai, llama3-meta-ai |
| 57 | Olllama-usecases? | Ce repo apporte de nombreux cas d'utilisation de l'open source ollla | ![]() | Ollla |
| 58 | Agents d'IA? | Modèles de conception pour les cadres multi-agents comme Autogen, Langraph, Taskweaver, Crewai, etc. | ![]() | Des cadres multi-agents comme Autogen, Langraph, Taskweaver, Crewai |
| 59 | Chiffon avec Llamaindex et Nvidia | Chiffon avec Llamaindex et Nvidia | ![]() | Chiffon avec Llamaindex et Nvidia |
| 60 | Quantifier LLM en utilisant AWQ | Quantifier LLM en utilisant AWQ | ![]() | Quantifier LLM en utilisant AWQ |
| 61 | Inférence LLMS et réglage fin | Estimer la consommation de mémoire de l'inférence LLMS et un réglage fin | ![]() | Inférence LLMS et réglage fin |
| 62 | PHI-3 LLM par Microsoft | PHI-3 LLM par implémentation Microsoft | ![]() | PHI-3 LLM |
| 63 | Rag avancé ?? | Génération avancée de la récupération (RAG) à travers des cahiers pratiques, en utilisant la puissance des agents de Langchain, Openai GPTS, Meta Llama3. | ![]() | Génération avancée de la récupération (RAG), Langchain, Openai GPTS, Meta Llama3, agents. |
| 64 | Rag-using-aws-bedrock and-azure-openai | Rag-using-aws-bedrock and-azure-openai | ![]() | Rag, Aws-Bedrock, Azure-Openai, AI génératif |
| 65 | LLM Security 2024 | Sécuriser les LLM contre les 10 top 10 des vulnérabilités de modèle de grande langue owasp 2024 | ![]() | OWASP, Sécurité LLM, vulnérabilité, sécurité des données, cybersécurité, AI génératif, LLM Security |
| 66 | GPT4O-API-IMPLEMENTATION-GPT4-RAG | Partage avec API GPT4, Rag GPT4, Assistant Openai GPT4, Modèles Openai | ![]() | Openai-API, GPT-4, modèles en grand langage, génératif-ai, GPT4-API, GPT4O |
| 67 | Inférence Paligemma et réglage fin | Inférence Paligemma et réglage fin | ![]() | Paligemma, inférence, réglage fin, générateur-ai |
| 68 | Évaluation LLMS | Évaluation LLMS | ![]() | Évaluation LLMS, AI générative |
| 69 | Construire un chiffon avec le modèle Openai GPT-4O (OMNI) à l'aide de la base de données vectorielle ObjectBox | Construire un chiffon avec le modèle Openai GPT-4O (OMNI) à l'aide de la base de données vectorielle ObjectBox | ![]() | Rag, Openai GPT-4O (OMNI) Modèle, base de données Vector MobjectBox |
| 70 | Paligemma finetuning | Paligemma finetuning | ![]() | Paligemma, Finetuning |
| 71 | Évaluateur de chiffon | Une bibliothèque pour évaluer les systèmes de génération de la récupération (RAG) | ![]() | Évaluateur de chiffon, métriques: bleu, rouge, bert, perplexité, diversité, biais racial |
| 72 | GRIPTAPAPE: Créez des agents multi-ai personnalisables à partir de zéro | GRIPTAPAPE: Créez des agents multi-ai personnalisables à partir de zéro | ![]() | Trame-travail basé sur des agents, Griptape, LLM, Generative-AI, AIAGENTS |
| 73 | Génération de données synthétiques à l'aide de LLM | Génération de données synthétiques à l'aide de LLM via Argilla, Distilabel, Chatgpt, etc. | ![]() | Génération de données synthétiques, LLM, Argilla, Distilabel, Chatgpt |
| 74 | Application de transcription rapide Groq-Whisper | Application de transcription rapide Groq-Whisper Construite à l'aide de l'API Groq et rationalisation | ![]() | Groq-Whisper, LLM, rational |
| 75 | Crewai Agentops | Crewai Agentops: Surveillez vos agents d'IA | ![]() | Agentops, génératif-ai, Crewai, Aiagents |
| 76 | Chiffon agentique utilisant l'équipage AI | Chiffon agentique utilisant l'équipage AI | ![]() | Rag, génératif-ai, Crewai, Aiagents, agence-rag, agentic-ai, Crewai-Rag |
| 77 | Agents AI utilisant l'équipage AI | Les agents AI ont rationaliser l'application en utilisant l'équipage AI | ![]() | Agents AI, application rationalisée, Generativeai, Crew AI |
| 78 | Multi GPU Fine Training LLMS | Multi GPU Fine Training LLMS en utilisant Deeppeed et accélérer. | ![]() | accélérer, composer GPU, finetuning, profondeur, modes en grand langage, génératif-ai |
| 79 | Agent financier basé sur LLM | Un agent intelligent utilisant des modèles de grandes langues (LLM) pour la récupération des actualités financières automatisées et la prévision des cours des actions. | ![]() | Basé sur des agents, Finance-API, LLMS, Generative-Aai, Gemini-Pro |
| Plus de liste de projets arrive ... !!! |
Distribué sous la licence du MIT. Voir LICENSE pour plus d'informations.