Ragdocs ist eine hochmoderne Open-Source-Lösung, die revolutioniert, wie Sie mit Dokumentation interagieren. Durch die Kombination der Befugnis lokaler LLMs mit hochmodernen Abrufgeneration (RAG) können Entwickler sofort genaue Antworten aus ihrer Dokumentation ohne API-Kosten erhalten.
Verabschieden Sie sich von teuren API -Anrufen und Datenschutzbedenken. Mit Ragdocs bleibt Ihre gesamte Dokumentation privat und bietet Chatgpt-ähnliche Interaktionen. Es wurde mit Milvus Vectorsuche und Next.js erstellt und ist produktionsbereit und einfach zu bereitstellen. Erleben Sie die Zukunft der Dokumentationssuche mit vollständiger Datenschutz und ohne Nutzungsgebühren.
ragdocs/
├── data/ # Documentation storage
│ ├── milvus_docs/ # Milvus documentation
│ ├── qdrant_docs/ # Qdrant documentation
│ └── weaviate_docs/ # Weaviate documentation
├── milvus/ # Milvus standalone setup
│ └── standalone_embed.sh # Milvus standalone script
├── ragdocs_api/ # FastAPI backend
│ ├── conversation_api.py # Chat API endpoints
│ ├── file_tracker.py # Document change tracking
│ ├── llm_provider.py # LLM integration (Ollama)
│ ├── markdown_processor.py # Markdown processing
│ └── rag_system.py # Core RAG implementation
└── ragdocs_frontend/ # Next.js frontend
└── src/ # Frontend source code
Installieren Sie Node.js mit NVM :
nvm install 20.17.0
nvm use 20.17.0git clone https://github.com/AlexisBalayre/RagDocs.git
cd RagDocs # Install poetry if not already installed
curl -sSL https://install.python-poetry.org | python3 -
# Install project dependencies
poetry install
poetry shellSchlüsselabhängigkeiten:
- Lama-Index: 0.11.22
- Fastapi: 0.115.4
- Milvus-Lite: 2.4.10
- Satztransformer: 2.7.0
- Fackel: 2.5.1
cd ragdocs_frontend
yarncp example.env.local .env.local
# Edit .env.local with your configuration cd milvus
bash standalone_embed.sh startpoetry run uvicorn ragdocs_api.conversation_api:app --reload cd ragdocs_frontend
yarn devdata/ . Bearbeiten Sie die .env.local -Datei für Schlüsseleinstellungen:
MILVUS_HOST = localhost
MILVUS_PORT = 19530
OLLAMA_MODEL = llama3.2 Beiträge werden gefördert! Folgen Sie folgenden Schritten:
git checkout -b feature/AmazingFeaturegit commit -m ' Add some AmazingFeature 'git push origin feature/AmazingFeatureDieses Projekt ist unter der MIT -Lizenz lizenziert. Weitere Informationen finden Sie in der Lizenzdatei.
Wenn dieses Projekt Ihrer Arbeit einen Mehrwert verleiht, geben Sie ihm bitte einen Stern!
Ihre Unterstützung macht einen Unterschied und fördert die Weiterentwicklung. Feedback- und Feature -Vorschläge sind immer willkommen!