END TO END GENERATIVE AI PROJECTS
1.0.0
| S.no | 프로젝트 이름 | 설명 | 공식 리포 | 기술 스택 |
|---|---|---|---|---|
| 1 | Multi-PDFS ChatApp AI 에이전트? | Langchain을 사용하여 여러 PDF와 완벽하게 채팅, Google Gemini Pro & Faiss Vector DB를 원활한 간소 배포로 사용하십시오. 멋진 Google Gemini OpenSource Language 모델에서 즉각적이고 정확한 응답을 얻으십시오. 지금 PDF 경험을 변환하십시오! | ![]() | F/w: Langchain Model : Google Gemini Pro, Vector DB : FAISS Deployment : sleamlit |
| 2 | LLM을 사용하여 Genai 도구를 연설하는? | Genai LLM 모델을 제기하여 업로드 된 이미지의 컨텍스트를 기반으로 오디오 단편 소설을 생성하는 AI 도구. | ![]() | F/w: Langchain Model : Huggingface Model, Openai GPT-3.5, Vector Deployment : 유선형, 포옹 공간 |
| 3 | YouTube Video Sumbarizer LLM 앱 전사 | End to End YouTube Video Summarizer LLM 앱은 Google Gemini Pro와 함께 YouTube 비디오 전신 스크립트를 기반으로 자세한 메모를 제공합니다. AI의 힘을 사용하면 이제 비디오 전사를 포괄적 인 연구 자료로 변환 할 수 있습니다. | ![]() | Google Gemini Pro |
| 4 | End to End Rag LLM 앱 | llama2 및 llamaindex를 사용하여 Rag LLM 앱 구축에 대한 단계별 안내서 | ![]() | llama2 및 llamaindex |
| 5 | ATS 추적 LLM 프로젝트를 재개하십시오 | 이것은 채용 프로세스를 최적화하기위한 프로젝트입니다. 고급 신청자 추적 시스템을 Google Gemini Pro와 통합하여 이력서 구문 분석, 키워드 매칭 및 후보 평가 및 재능 획득의 효율적인 엔드 투 엔드 솔루션을 간소화합니다. | ![]() | Google Gemini Pro |
| 6 | SQL 데이터베이스 쿼리와 함께 SQL LLM 앱에 대한 끝에서 종료 텍스트 | "Google Gemini Pro를 사용한 SQL LLM 앱"은 자연어 쿼리를 SQL 명령으로 변환하는 소프트웨어 응용 프로그램입니다. 또한 생성 된 SQL 명령을 사용하여 직접 SQL 데이터베이스를 쿼리 할 수 있습니다. | ![]() | Google Gemini Pro 사용 |
| 7 | 끝에서 종료 다중 언어 송장 추출기 프로젝트 | 다중 언어 송장 추출기 다중 언어 송장 추출기의 전력을 발견하십시오! Google Gemini Pro Vision AI로 구동되는이 유선형 앱은 송장 이미지에서 정보를 산들 바람으로 만듭니다. 이미지를 업로드하고 프롬프트를 추가하며 자세한 응답을 쉽게 얻습니다. 다중 언어 지원. | ![]() | Google Gemini Pro 사용 |
| 8 | PDF 문서 질문 답변 LLM 시스템 | ![]() | Langchain, Cassandra, Astra DB, 벡터 데이터베이스 | |
| 9 | 사용자 정의 데이터 세트와 Llama 2를 미세 조정합니다 | ![]() | LoRA 및 QLoRA 기술 사용 | |
| 10 | End to End Rag LLM 앱 : 여러 PDF의 인덱싱 및 쿼리 | ![]() | llamaindex 및 OpenAi 사용 | |
| 11 | 실시간 재무 주식 분석 | ![]() | CrewAI , Groq , LangChain 및 browserless, Serper and SEC EDGAR API 와 같은 다른 API 사용 | |
| 12 | 의료용 챗봇 | LLAMA2 Medical Bot은 최첨단 언어 모델 및 벡터 매장을 사용하여 사용자 쿼리에 답변하여 의료 정보를 제공하도록 설계된 강력한 도구입니다. 봇은 최소 16GB의 RAM으로 괜찮은 CPU 기계에서 실행됩니다. | ![]() | Llama2 및 Sentence Transformers 사용. Langchain 과 Chainlit 에 의해 구동됩니다 |
| 13 | 의료 혼합 전문가 LLM | Mergekit을 사용한 전문가 LLM의 의료 혼합. | ![]() | MERGEKIT |
| 14 | Haystack 및 Mistral 7b Rag 구현 | Haystack 및 Mistral 7b Rag 구현. 완전히 오픈 소스 스택을 기반으로합니다. | ![]() | 건초 더미 및 임시 -7B- 래그 |
| 15 | 전원 QNA 챗봇 | Mistral 7B, Langchain 및 Fastapi를 사용한 질문 답변 세대 앱. | ![]() | Mistral 7b, Langchain 및 Fastapi. |
| 16 | 조각 | 젬마 -7B- 래그 사용-콜라마 | ![]() | 젬마 -7B- 래그 사용-콜라마 |
| 17 | 기기 LLM 추론 | 미디어 파이프 LLM 추론 API를 사용한 기기 LLM 추론. | ![]() | 미디어 파이프 LLM 추론 API 사용. |
| 18 | OpenAI를 사용하는 개인 음성 비서 | ![]() | ||
| 19 | 노스 슬로그를 사용한 LLM의 빠른 미세 조정 및 DPO 교육 | ![]() | ||
| 20 | Groq 채팅 앱 | Groq 채팅 앱 Groq API 및 Streamlit을 사용하여 구축되었습니다. | ![]() | Groq API 및 간소. |
| 21 | Bio-Mistral-7b를 사용한 의료 걸레 | 오픈 소스 스택을 사용한 헝겊 구현입니다. Biomistral 7B는 PubMedbert와 함께 임베딩 모델, 자체 호스팅 벡터 DB로서 Qdrant 및 Orgestration Frameworks로 Langchain & Llama CPP를 구축하는 데 사용되었습니다. | ![]() | Rag 구현, Biomistral 7B, PubMedbert, Qdrant, Langchain & Llama CPP |
| 22 | 엔드 투 엔드 래그 구현 Amazon Bedrock을 사용합니다 | ![]() | 아마존 기반암 | |
| 23 | SSD-1B를 사용한 더 빠른 안정 확산 | SSD-1B를 사용한 더 빠른 안정 확산. 데모를위한 Gradio 앱. | ![]() | SSD-1B, Gradio를 사용한 안정적인 확산 |
| 24 | PHI-2 미세 조정 | PHI-2 정신 건강 GPT를 구축하기위한 미세 조정. | ![]() | Phi-2-Fine Tuning |
| 25 | Meditron-7B-LLM을 사용한 의료 걸레 | Meditron 7B LLM, QDRANT 벡터 데이터베이스 및 PubMedbert 임베딩 모델을 사용한 의료 래그 QA 앱. | ![]() | Meditron 7b LLM, Qdrant, PubMedbert |
| 26 | LCM LORA를 사용한 가장 빠른 이미지 생성. | ![]() | 로라 | |
| 27 | nvidia nim을 사용한 하이드 기반 헝겊 | ![]() | 하이드 기반 래그, Nvidia Nim | |
| 28 | Visdum-IA를 사용한 지능형 시스템 구축 | ![]() | VISDUM-AI | |
| 29 | Gradio 앱 내부의 Zephyr 7B 베타 래그 데모 | BGE Embeddings, ChromADB 및 Zephyr 7B 베타로 구동되는 Gradio 앱 내부의 Zephyr 7B 베타 래그 데모. | ![]() | Zephyr 7b 베타, 래그, 그라디오, BGE 임베딩, ChromADB |
| 30 | 랭행 표현 언어 | Langchain 표현 언어에 대한 소개. | ![]() | 엘 |
| 31 | 미세 조정 멀티 모달 LLM | 포켓몬 GO 데이터 세트의 미세 조정 멀티 모달 LLM "IDEFICS 9B"는 포옹에 사용할 수 있습니다. | ![]() | 멀티 모달 LLM "IDEFICS 9B" |
| 32 | 건초 더미, 미스트랄 및 체인 리트를 사용한 헝겊 도구 | 건초 더미, Mistral 및 Chainlit을 사용한 헝겊 도구. CPU의 모든 오픈 소스 스택. | ![]() | 래그, 건초 더미, 미스트랄, 체인 리트 |
| 33 | llmlingua를 사용한 프롬프트 압축 | llmlingua를 사용한 프롬프트 압축. 토큰의 비용과 대기 시간에 도움이됩니다. | ![]() | 프롬프트 압축, llmlingua |
| 34 | Colab에서 스트림 확산 | ![]() | ||
| 35 | Langchain을 사용한 멀티 모달-래그 | 멀티 모달-래그 사용-랭행 | ![]() | 래그, 랭케 |
| 36 | 신속한 주입 방지 기술을 사용한 Secure-AI-LLM 챗봇 | 신속한 주사 및 예방 기술. LLM을 사용하여 구축 된 AI 챗봇을 보호하십시오. | ![]() | 신속한 주입, LLM |
| 37 | 임의의 LLM의 GGUF 양자화 | GGUF- 정량화 | ![]() | GGUF- 정량화 |
| 38 | 로라를 사용한 델타몬 애니메이션 | 델타 몬-애니메이션 using-lora | ![]() | 로라 |
| 39 | LLM 및 래그의 평가 | LLMS 및 RAGS 평가. 이론 및 코드 기반 접근법을 다루는 LLM 및 래그를 평가하기위한 완전한 안내서. | ![]() | LLMS, 걸레 |
| 40 | 풀다운 미세 조정 | 풀다운 튜닝 | ![]() | 풀다 |
| 41 | llmware의 슬림 모델 | llmware의 슬림 모델. AI 에이전트 및 기능 호출의 기능을 보여주는 유선형 앱. | ![]() | 슬림 모델, llmware, AI 에이전트, 기능 호출, 간소화 앱 |
| 42 | 작은 멀티 모달 비전 모델 | PHI-2 및 SIGLIP를 사용하여 훈련 된 작은 멀티 모달 비전 모델 "IMP-V1-3B". | ![]() | 작은 다중 모드 비전 모델 "IMP-V1-3B", PHI-2, SIGLIP |
| 43 | Langsmith 구현 | 랭무 스미스 구현 | ![]() | 랭무 스미스 |
| 44 | Langserve 구현 | Langserve implementation | ![]() | 랭 슨브 |
| 45 | LLAVA 7B 및 Gradio를 사용한 멀티 모달 AI 앱 | LLAVA 7B 및 Gradio를 사용한 멀티 모달 AI 앱 | ![]() | Llava 7b, Gradio |
| 46 | 당황한 라이트 | langgraph, tavily 및 gpt-4를 사용하여 당황한 라이트. | ![]() | langgraph, tavily 및 gpt-4. |
| 47 | 생성 -AI-llm-projects | Gen AI는 큰 언어 모델 프로젝트를 끝내기 위해 끝납니다 | ![]() | 최신 OpenSource 모델을 갖춘 대형 언어 모델 프로젝트 30+ Gen AI End To End To Mine Tuning |
| 48 | Musicai | Transformers 및 Pytorch를 사용한 맞춤형 음악 생성 | ![]() | 변압기, Pytorch |
| 49 | Gemini LLM을 사용한 오디오 요약 앱 | Gemini LLM을 사용한 오디오 요약 앱 | ![]() | Gemini 1.5, LLM |
| 50 | Qlora를 사용하여 미세 조정 멀티 모달 LLM "Idefics 2" | Qlora를 사용하여 미세 조정 멀티 모달 LLM "Idefics 2". | ![]() | 멀티 모달 LLM "Idefics 2", Qlora |
| 51 | llama 3 Orpo Finetuning | Llama 3 Colab Pro의 A100에서 Orpo 미세 조정. | ![]() | llama 3 orpo |
| 52 | llama3, langchain 및 chromadb를 사용한 래그 | 이 프로젝트는 LLAMA3 Langchain 및 ChromADB를 활용하여 RAG (Resprieval Augmented Generation) 시스템을 설정합니다. 이 시스템을 사용하면 LLM (Lange Language Model)의 교육 데이터에 정보가 포함되지 않더라도 문서에 대해 질문 할 수 있습니다. 검색 증강 생성 세대는 질문이 제시 될 때 검색 단계를 먼저 수행함으로써 작용합니다. 이 단계는 문서가 색인화 된 특수 벡터 데이터베이스에서 관련 문서를 가져옵니다. | ![]() | llama3, langchain 및 chromadb를 사용한 래그 |
| 53 | NVIDIA와 LLAMA-3 70B LLM | llama3 채팅 AI 앱을 만나십시오! 메타는 가장 강력한 오픈 소스 모델 인 Llama 3을 공개합니다. llama3 챗봇과 완벽하게 채팅하십시오. Awesome LLAMA3 OpenSource Language 모델에서 즉각적이고 정확한 응답을 얻으십시오. | ![]() | NVIDIA를 사용한 LLAMA-3 70B LLM, Streamlit UI |
| 54 | Pytorch FSDP 및 Q-Lora를 사용하여 LLAMA 3을 효율적으로 미세 조정합니다 | Pytorch FSDP 및 Q-Lora를 사용하여 LLAMA 3을 효율적으로 미세 조정합니다 | ![]() | Pytorch FSDP 및 Q-Lora가있는 LLAMA 3, 미세 튜닝 |
| 55 | ? Meta llama3 Genai Real World Usecases End -End 구현 가이드 | llama3 genai usecases | ![]() | llama3, Finetuning, Deployment, Rag, Langchain |
| 56 | 메타의 llama3- 정문화 ??? | LLAMA3- 정문화는 논문의 공식적 구현 "낮은 비트 양자화 된 LLAMA3 모델은 얼마나 좋은가?" 여기에서 평가는 1-8 비트 및 다양한 데이터 세트에서 LLAMA3의 10 개의 기존 후 훈련 양자화 및 LORA- 결절 방법에 대한 평가를 수행하여 LLAMA3의 저 비트 양자화 성능을 포괄적으로 드러냅니다. | ![]() | 양자화, Generativeai, llama3- 메타 -AI |
| 57 | Ollama-usecases? | 이 repo는 오픈 소스 Ollama에서 수많은 사용 사례를 제공합니다. | ![]() | 올라마 |
| 58 | AI 요원? | Autogen, Langraph, Taskweaver, Crewai 등과 같은 멀티 에이전트 프레임 워크의 디자인 패턴 | ![]() | Autogen, Langraph, Taskweaver, Crewai와 같은 멀티 에이전트 프레임 워크 |
| 59 | llamaindex와 nvidia를 가진 걸레 | llamaindex와 nvidia를 가진 걸레 | ![]() | llamaindex와 nvidia를 가진 걸레 |
| 60 | AWQ를 사용하여 LLM을 정량화하십시오 | AWQ를 사용하여 LLM을 정량화하십시오 | ![]() | AWQ를 사용하여 LLM을 정량화하십시오 |
| 61 | LLMS 추론 및 미세 조정 | LLMS 추론 및 미세 조정의 메모리 소비를 추정합니다 | ![]() | LLMS 추론 및 미세 조정 |
| 62 | Microsoft의 PHI-3 LLM | Microsoft 구현 별 PHI-3 LLM | ![]() | Phi-3 llm |
| 63 | 고급 헝겊 ?? | Langchain, OpenAi GPT, Meta Llama3, 에이전트의 힘을 사용하여 실제 노트북을 통한 고급 검색 세대 (RAG). | ![]() | 고급 검색 증기 생성 (RAG), Langchain, Openai GPTS, Meta Llama3, 에이전트. |
| 64 | 래그 우주-aws-bedrock and-azure-openai | 래그 우주-aws-bedrock and-azure-openai | ![]() | 래그, aws-bedrock, Azure-Openai, 생성 AI |
| 65 | LLM 보안 2024 | LLM 보안 상위 10 개 OWASP 대형 언어 모델 취약점 2024 | ![]() | OWASP, LLM 보안, 취약성, 데이터 보안, 사이버 보안, 생성 AI, LLM 보안 |
| 66 | GPT4-API-IMPLETATION GPT4-RAG | GPT4 API, GPT4 RAG, OpenAI GPT4 Assistant, OpenAI 모델 시작 | ![]() | OpenAI-API, GPT-4, 대규모 모델, 생성 -AI, GPT4-API, GPT4O |
| 67 | Paligemma 추론 및 미세 조정 | Paligemma 추론 및 미세 조정 | ![]() | Paligemma, 추론, 미세 조정, 생성 -AI |
| 68 | LLMS 평가 | LLMS 평가 | ![]() | LLMS 평가, 생성 AI |
| 69 | Openai GPT-4O (OMNI) 모델을 사용하여 RAG 빌딩 ObjectBox 벡터 데이터베이스를 사용한 모델 | Openai GPT-4O (OMNI) 모델을 사용하여 RAG 빌딩 ObjectBox 벡터 데이터베이스를 사용한 모델 | ![]() | Rag, Openai GPT-4O (OMNI) 모델, MobjectBox 벡터 데이터베이스 |
| 70 | Paligemma Finetuning | Paligemma Finetuning | ![]() | Paligemma, Finetuning |
| 71 | 헝겊 평가자 | RAG (Retrieval-Augmented Generation) 시스템을 평가하기위한 라이브러리 | ![]() | Rag Evaluator, Metrics : Bleu, Rouge, Bert, 당황, 다양성, 인종 편견 |
| 72 | 그립 테이프 : 처음부터 사용자 정의 가능한 멀티 AI 에이전트를 만듭니다 | 그립 테이프 : 처음부터 사용자 정의 가능한 멀티 AI 에이전트를 만듭니다 | ![]() | 에이전트 기반 프레임 워크, Griptape, LLM, Generative-AI, Aiagents |
| 73 | LLM을 사용한 합성 데이터 생성 | Argilla, Distilabel, Chatgpt 등을 통한 LLM을 사용한 합성 데이터 생성. | ![]() | 합성 데이터 생성, LLM, Argilla, Distilabel, Chatgpt |
| 74 | Groq-Whisper 빠른 전사 앱 | Groq-Whisper 빠른 전사 앱 Groq API 및 Streamlit을 사용하여 구축되었습니다. | ![]() | Groq-Whisper, llm, sleamlit |
| 75 | Crewai agentops | Crewai AgentOps : AI 에이전트를 모니터링하십시오 | ![]() | Agentops, Generative-AI, Crewai, Aiagents |
| 76 | 승무원 AI를 사용한 에이전트 걸레 | 승무원 AI를 사용한 에이전트 걸레 | ![]() | Rag, Generative-AI, Crewai, Aiagents, Agentic-RAG, Agentic-AI, Crewai-Rag |
| 77 | 승무원 AI를 사용하는 AI 요원 | AI 에이전트는 승무원 AI를 사용하여 앱을 간소화합니다 | ![]() | AI 에이전트, Streamlit App, Generativeai, Crew AI |
| 78 | 멀티 GPU 미세 훈련 LLM | 딥 스피드 및 가속을 사용하는 멀티 GPU 미세 교육 LLM. | ![]() | 가속, GPU 컴퓨팅, 미세 조정, 딥 스피드, 대규모 모델, 생성 -AI |
| 79 | LLM 기반 금융 에이전트 | 자동화 된 금융 뉴스 검색 및 주가 예측을 위해 대형 언어 모델 (LLM)을 사용하는 지능형 에이전트. | ![]() | 에이전트 기반, 금융 -API, LLMS, 생성 -AI, Gemini-Pro |
| 더 많은 프로젝트 목록이 다가오고 있습니다 ... !!! |
MIT 라이센스에 따라 배포됩니다. 자세한 내용은 LICENSE 참조하십시오.