END TO END GENERATIVE AI PROJECTS
1.0.0
| S.NO | Nombre del proyecto | Descripción | Repositorio | Pila de tecnología |
|---|---|---|---|---|
| 1 | ¿Agente de AI de chatapp multi-PDFS? | Chatea sin problemas con múltiples PDF usando Langchain, Google Gemini Pro & Faiss Vector DB con implementación de rleaje sin interrupciones. Obtenga respuestas instantáneas y precisas del increíble modelo de lenguaje de Google Gemini OpenSource. ¡Transforma tu experiencia PDF ahora! | ![]() | F/w: Model de Langchain: Google Gemini Pro, Vector DB : Deployment de FAISS: Streamlit |
| 2 | ? ️Mage to Speech Genai Tool usando LLM? ♨️ | Herramienta AI que genera una historia corta de audio basada en el contexto de una imagen cargada al solicitar un modelo Genai LLM. | ![]() | F/w: Model de Langchain: Modelos Huggingface, OpenAI GPT-3.5, Vector Deployment : espacios de abrilamiento, abrazando |
| 3 | Aplicación de Video Transcribe de YouTube LLM | La aplicación de Video de YouTube de finalización de finalización LLM LLM con Google Gemini Pro proporciona notas detalladas basadas en las transcripciones de video de YouTube. Con el poder de la IA, ahora puede convertir las transcripciones de video en materiales de estudio integrales. | ![]() | Google Gemini Pro |
| 4 | Aplicación de Rag LLM de End to End | Guía paso a paso para construir una aplicación RAG LLM con Llama2 y Llamaindex | ![]() | Llama2 y Llamaindex |
| 5 | Reanudar ATS Tracking LLM Project | Este es un proyecto con el objetivo de optimizar el proceso de reclutamiento. Integra un sistema de seguimiento de solicitantes avanzado con Google Gemini Pro, racionalizando el análisis de cursos, la coincidencia de palabras clave y la evaluación de candidatos para una solución eficiente de extremo a extremo en la adquisición de talento. | ![]() | Google Gemini Pro |
| 6 | Texto final a finalización de la aplicación SQL LLM junto con la base de datos SQL de consulta | El "Texto a la aplicación SQL LLM con Google Gemini Pro" es una aplicación de software que facilita la conversión de consultas de lenguaje natural en comandos SQL. También habilita la consulta de bases de datos SQL directamente utilizando los comandos SQL generados. | ![]() | Usando Google Gemini Pro |
| 7 | Proyecto de extracto de factura de lenguaje múltiple de fin a final | Extractor de factura de varios idiomas ¡Descubra el poder del extractor de factura multilenguaje! Esta aplicación a paso a luz, impulsada por Google Gemini Pro Vision AI, hace que la extracción de las imágenes de facturas sea muy fácil. Cargue imágenes, agregue las indicaciones y obtenga respuestas detalladas sin esfuerzo. Con soporte de varios idiomas. | ![]() | Usando Google Gemini Pro |
| 8 | PDF Document Pregunta Respondiendo al sistema LLM | ![]() | Langchain, Cassandra, Astra DB, Vector Database | |
| 9 | Fine Tune Llama 2 con conjunto de datos personalizado | ![]() | Uso de técnicas LoRA y QLoRA | |
| 10 | Aplicación de End to End Rag LLM: indexación y consulta de múltiples pdf | ![]() | Usando llameAndex y OpenAi | |
| 11 | Análisis de acciones financieras en tiempo real | ![]() | Usando CrewAI , Groq , LangChain y algunas otras API como browserless, Serper and SEC EDGAR API | |
| 12 | Chatbot médico | El Bot Medical LLAMA2 es una herramienta poderosa diseñada para proporcionar información médica respondiendo consultas de usuarios utilizando modelos de idiomas de última generación y tiendas vectoriales. El bot se ejecuta en una máquina CPU decente con un mínimo de 16 GB de RAM. | ![]() | Usando Llama2 y Sentence Transformers . Impulsado por Langchain y Chainlit |
| 13 | Mezcla médica de expertos llm | Mixtura médica de Experts LLM utilizando MergeKit. | ![]() | Mergekit |
| 14 | Implementación de rag de Haystack y Mistral 7b | Implementación de Haystack y Mistral 7b Rag. Se basa en una pila de código abierto. | ![]() | Haystack-and-Mistral-7b-Rag |
| 15 | Power QNA Chatbot | Pregunta Aplicación de generación de respuestas usando Mistral 7B, Langchain y Fastapi. | ![]() | Mistral 7b, Langchain y Fastapi. |
| 16 | TRAPO | Gemma-7b-rag-using-lollama | ![]() | Gemma-7b-rag-using-lollama |
| 17 | Inferencia LLM en el dispositivo | Inferencia LLM en dispositivo utilizando API de inferencia MediaPipe LLM. | ![]() | Uso de la API de inferencia de MediaPipe LLM. |
| 18 | Asistente de voz personal con OpenAi | ![]() | ||
| 19 | Ajuste rápido y entrenamiento DPO de LLM usando Unsaprich | ![]() | ||
| 20 | Aplicación de chat de Groq | Aplicación de chat Groq construida con API Groq y Strewlit. | ![]() | API de groq y racionalización. |
| 21 | Trapo médico con bio-Mistral-7b | Esta es una implementación de trapo utilizando la pila de código abierto. Biomistral 7b se ha utilizado para construir esta aplicación junto con PubMedbert como modelo de incrustación, QDRANT como un Vector DB auto alojado y Langchain & Llama CPP como marcos de orquestación | ![]() | Implementación de RAG, Biomistral 7B, PubMedbert, Qdrant, Langchain & Llama CPP |
| 22 | La implementación del trapo de extremo a extremo que usa el rock de Amazon | ![]() | Roca madre de Amazon | |
| 23 | Difusión estable más rápida usando SSD-1B | Difusión estable más rápida usando SSD-1B. Una aplicación de Gradio en el interior para la demostración. | ![]() | Difusión estable usando SSD-1B, Gradio |
| 24 | Phi-2 ajuste | Phi-2 ajustado para construir un GPT de salud mental. | ![]() | Phi-2-fine-ajuste |
| 25 | Trapo médico con meditron-7b-llm | Aplicación Medical Rag QA utilizando Meditron 7B LLM, Qdrant Vector Database y PubMedbert Incrustle Model. | ![]() | Meditron 7B LLM, Qdrant, PubMedbert |
| 26 | La generación de imágenes más rápida usando LCM Lora. | ![]() | Lora | |
| 27 | Trapo basado en Hyde usando nvidia nim | ![]() | Trapo con sede en Hyde, nvidia nim | |
| 28 | Construyendo sistemas inteligentes utilizando visdum-ai | ![]() | VISDUM-AI | |
| 29 | Zephyr 7b Beta Rag Demo dentro de una aplicación de Gradio | Zephyr 7b Beta Rag Demo dentro de una aplicación de Gradio impulsada por BGE Incruscadores, ChromadB y Zephyr 7B Beta. | ![]() | Zephyr 7B Beta, Rag, Gradio, BGE Incruscos, ChromadB |
| 30 | Lenguaje de expresión de langchain | Introducción al lenguaje de expresión de Langchain. | ![]() | Lel |
| 31 | Ajuste fino LLM multimodal | Tuning Fine Multimodal LLM "IDEFICS 9B" en el conjunto de datos Pokemon Go disponible en la cara de abrazo. | ![]() | Multimodal LLM "IDEFICS 9B" |
| 32 | Herramienta de trapos utilizando Haystack, Mistral y ChainLit | Herramienta de trapo utilizando Haystack, Mistral y ChainLit. Todas las pilas de código abierto en la CPU. | ![]() | Rag, Haystack, Mistral, ChainLit |
| 33 | Compresión rápida utilizando llmlingua | Compresión rápida utilizando llmlingua. Ayuda con el costo y la latencia del token. | ![]() | Compresión rápida, llmlingua |
| 34 | Difusión de la corriente en colab | ![]() | ||
| 35 | Rag multimodal con Langchain | Langetraina multimodal-rag | ![]() | Trapo, langchain |
| 36 | Chatbots seguros-ai-llm utilizando técnicas de prevención de inyección de inmediato | Técnicas de inyección y prevención rápida. Asegure sus chatbots de IA construidos con LLM. | ![]() | Inyección inmediata, LLMS |
| 37 | Cuantización de Gguf de cualquier LLM | Gguf-Quantization-of-Any-llm | ![]() | Cantización de gguf |
| 38 | Anime deltamon usando lora | Deltamon-Anime-Using-Lora | ![]() | Lora |
| 39 | Evaluación de LLM y trapos | Evaluación de LLMS y RAGS. Una guía completa para evaluar LLM y trapos que cubren la teoría y los enfoques basados en código. | ![]() | LLMS, trapos |
| 40 | Sintonía nocturno | Ajuste | ![]() | Descuidado |
| 41 | Modelos delgados de LLMware | Modelos delgados por LLMware. Una aplicación de transmisión que muestra las capacidades para los agentes de IA y las llamadas de funciones. | ![]() | Slim Models, LLMware, agentes de IA, llamadas de funciones, aplicación de optimización |
| 42 | Modelo de visión multimodal pequeña | Pequeño modelo de visión multimodal "Imp-V1-3b" entrenado con PHI-2 y SIGLIP. | ![]() | Modelo de visión multimodal pequeño "Imp-V1-3b", Phi-2, Siglip |
| 43 | Implementación de Langsmith | Implementación de langsmith | ![]() | Langmith |
| 44 | Implementación de Langserve | Implementación de Langserve | ![]() | Langserve |
| 45 | Aplicación de IA multimodal que usa Llava 7B y Gradio | Aplicación de IA multimodal que usa Llava 7B y Gradio | ![]() | Llava 7b, Gradio |
| 46 | Perplejidad lite | Perplejidad lite usando langgraph, tavily y gpt-4. | ![]() | Langgraph, Tavily y GPT-4. |
| 47 | Projects generativos-ai-llm | Proyectos de modelos de idiomas de Gen Ai End to End | ![]() | Más de 30 proyectos de modelos de idiomas grandes de extremo a extremo con los últimos modelos OpenSource, ajuste fino |
| 48 | Musicai | Generación de música personalizada con Transformers y Pytorch | ![]() | Transformadores, pytorch |
| 49 | Aplicación de resumen de audio usando Gemini LLM | Aplicación de resumen de audio usando Gemini LLM | ![]() | Géminis 1.5, LLM |
| 50 | FINE TUNE MULTIMODAL LLM "IDEFICS 2" USO QLORA | Fine Tune Multimodal LLM "IDEFICS 2" usando Qlora. | ![]() | Multimodal LLM "IDEFICS 2", Qlora |
| 51 | Llama 3 orpo Finetuning | Llama 3 Orpo Fine Tuning en A100 en Colab Pro. | ![]() | Llama 3 Orpo |
| 52 | Trapo usando Llama3, Langchain y ChromadB | Este proyecto utiliza LLAMA3 Langchain y ChromAdB para establecer un sistema de generación aumentada (RAG) de recuperación. Este sistema le permite hacer preguntas sobre sus documentos, incluso si la información no estaba incluida en los datos de capacitación para el modelo de lenguaje grande (LLM). La generación de recuperación aumentada funciona al realizar primero un paso de recuperación cuando se le presenta una pregunta. Este paso obtiene documentos relevantes de una base de datos de vector especial, donde los documentos han sido indexados. | ![]() | Trapo usando Llama3, Langchain y ChromadB |
| 53 | Llama-3 70B LLM con Nvidia | ¡Conoce la aplicación LLAMA3 Chat AI! Meta -Inveils Llama 3, el modelo de código abierto más potente hasta ahora. Chatan a la perfección con Llama3 chatbot. Obtenga respuestas instantáneas y precisas de Awesome Llama3 OpenSource Language Model | ![]() | Llama-3 70B LLM con Nvidia, UI aerodinámica |
| 54 | Llama 3 de manera eficiente con Pytorch FSDP y Q-Lora | Llama 3 de manera eficiente con Pytorch FSDP y Q-Lora | ![]() | Llama 3 con Pytorch FSDP y Q-Lora, ajuste fino |
| 55 | ? Meta Llama3 Genai Real World Usecases Guías de implementación de extremo a extremo | Llama3 Genai Usecases | ![]() | Llama3, Finetuning, despliegue, trapo, Langchain |
| 56 | ¿Meta's Llama3-Cuantización? | Llama3-cuantización es la implementación oficial del documento "¿Qué tan buenos son los modelos LLAMA3 cuantificados de baja bits?". Aquí la evaluación se realiza en los 10 métodos de cuantificación posterior al entrenamiento existentes y métodos de finalización de Lora de LLAMA3 en 1-8 bits y diversos conjuntos de datos para revelar de manera exhaustiva el rendimiento de cuantización de baja bits de LLAMA3. | ![]() | Cuantización, Generativeai, Llama3-Meta-AI |
| 57 | ¿Ollama-Usecases? | Este repositorio trae numerosos casos de uso del código abierto Ollama | ![]() | Ollama |
| 58 | ¿Agentes de IA? | Patrones de diseño para marcos de múltiples agentes como Autogen, Langraph, Taskweaver, Crewai, etc. | ![]() | Marcos de agentes múltiples como Autogen, Langraph, Taskweaver, Crewai |
| 59 | Trapo con llameindex y nvidia | Trapo con llameindex y nvidia | ![]() | Trapo con llameindex y nvidia |
| 60 | Cuantizar LLM usando AWQ | Cuantizar LLM usando AWQ | ![]() | Cuantizar LLM usando AWQ |
| 61 | Inferencia de LLMS y ajuste fino | Estimar el consumo de memoria de la inferencia de LLMS y el ajuste fino | ![]() | Inferencia de LLMS y ajuste fino |
| 62 | Phi-3 LLM de Microsoft | Phi-3 LLM de Microsoft Implementación | ![]() | Phi-3 LLM |
| 63 | Trapo avanzado? | Generación de recuperación avanzada (RAG) a través de cuadernos prácticos, utilizando el poder de Langchain, Operai GPTS, Meta Llama3, Agentes. | ![]() | Generación de recuperación avanzada (RAG), Langchain, OpenAi GPTS, Meta Llama3, Agentes. |
| 64 | Rag-Using-Aws-Bedrock-and-Azure-Openai | Rag-Using-Aws-Bedrock-and-Azure-Openai | ![]() | Rag, AWS-Bedrock, Azure-Openai, AI generativo |
| 65 | LLM Security 2024 | Asegurar las Vulnerabilidades de Modelo de Lenguaje Gran INGLANGE de LLM en Top 10 OWASP 2024 | ![]() | OWASP, LLM SEGURIDAD, Vulnerabilidad, Seguridad de datos, Cyber Security, Generative AI, LLM Security |
| 66 | GPT4O-API-APILMENTACIÓN-GPT4-RAG | Comenzando con GPT4 API, Rag GPT4, Asistente de OpenAI GPT4, Modelos Operai | ![]() | Operai-API, GPT-4, modelos de grandes idiomas, Generation-AI, GPT4-API, GPT4O |
| 67 | Inferencia de paligemma y ajuste fino | Inferencia de paligemma y ajuste fino | ![]() | Paligemma, inferencia, ajuste fino, generativo-AI |
| 68 | Evaluación de LLMS | Evaluación de LLMS | ![]() | Evaluación de LLMS, IA generativa |
| 69 | Construir trapo con modelo Operai GPT-4O (OMNI) utilizando Objectbox Vector Database | Construir trapo con modelo Operai GPT-4O (OMNI) utilizando Objectbox Vector Database | ![]() | RAG, modelo OpenAI GPT-4O (OMNI), Base de datos de Vector Mobjectbox |
| 70 | Paligemma Finetuning | Paligemma Finetuning | ![]() | Paligemma, Finetuning |
| 71 | Evaluador de trapos | Una biblioteca para evaluar sistemas de generación de recuperación (tra Rag) | ![]() | Evaluador de trapo, Métricas: Bleu, Rouge, Bert, Perpleidad, Diversidad, Sesgo racial |
| 72 | GRIPTAPE: Crear agentes multi IA personalizables desde cero | GRIPTAPE: Crear agentes multi IA personalizables desde cero | ![]() | Framework basado en agentes, Griptape, LLM, Generative-AI, AIAgents |
| 73 | Generación de datos sintéticos utilizando LLM | Generación de datos sintéticos utilizando LLM a través de Argilla, Distilabel, Chatgpt, etc. | ![]() | Generación de datos sintéticos, LLM, Argilla, Distilabel, Chatgpt |
| 74 | Aplicación de transcripción rápida de Groq-Whisper | Aplicación de transcripción rápida de Groq-Whisper construida con API Groq y Strewlit | ![]() | Groq-Whisper, LLM, aerodinámico |
| 75 | AGENTOPS CREWAI | Crewai Agenteps: monitoree sus agentes de IA | ![]() | Agenteps, Generation-AI, Crewai, AIAGents |
| 76 | Trapo de agente usando la tripulación ai | Trapo de agente usando la tripulación ai | ![]() | Rag, Generative-AI, Crewai, Aiagents, Agentic-Rag, Agentic-AI, Crewai-Rag |
| 77 | Agentes de IA usando la tripulación AI | Los agentes de IA son la aplicación a paso a otro usando la tripulación AI | ![]() | Agentes de IA, aplicación aerodinámica, Generativeai, Crew AI |
| 78 | Multi GPU Fine Training LLMS | Multi GPU Fine Training LLM que usa Speed Deepeed y aceleran. | ![]() | acelerar, computar, finetunir, velocidad profunda, modelos de grandes idiomas, generación-aa |
| 79 | Agente financiero basado en LLM | Un agente inteligente que utiliza modelos de idiomas grandes (LLM) para la recuperación de noticias financieras automatizadas y la predicción del precio de las acciones. | ![]() | Agente basado, Finance-API, LLMS, Generative-AI, Gemini-Pro |
| Se acercan más la lista de proyectos ... !!! |
Distribuido bajo la licencia MIT. Consulte LICENSE para obtener más información.