
Vidéo de non-relation pour la voix off
Déploiement géré par l'équipe de Langfuse, généreux niveau libre (plan de passe-temps), aucune carte de crédit requise.
»Langfuse Cloud
# Clone repository
git clone https://github.com/langfuse/langfuse.git
cd langfuse
# Run server and database
docker compose up -d→ En savoir plus sur le déploiement local
Langfuse est simple à héberger et à rester à jour. Il ne nécessite actuellement qu'un seul conteneur Docker et une base de données Postgres. → Instructions d'hébergement
Déploiements à modèle: Railway, GCP, AWS, Azure, Kubernetes et autres
Vous avez besoin d'une clé publique et secrète de Langfuse pour commencer. Inscrivez-vous ici et trouvez-les dans les paramètres de votre projet.
Remarque: Nous vous recommandons d'utiliser notre SDK dactylographié entièrement asynchronisé qui vous permet d'instruler n'importe quelle application LLM avec n'importe quel modèle sous-jacent. Ils sont disponibles en Python (décorateurs) et JS / TS. Les SDK seront toujours le moyen le plus complet et le plus stable d'ingérer des données dans Langfuse.
Voir le → QuickStart pour intégrer Langfuse.
| Intégration | Soutien | Description |
|---|---|---|
| SDK | Python, JS / TS | Instrumentation manuelle utilisant les SDK pour une flexibilité complète. |
| Openai | Python, JS / TS | Instrumentation automatisée à l'aide de remplacement d'allumeur du SDK OpenAI. |
| Lubriole | Python, JS / TS | Instrumentation automatisée en passant le gestionnaire de rappel à l'application Langchain. |
| Llamaindex | Python | Instrumentation automatisée via le système de rappel Llamaindex. |
| Meule de foin | Python | Instrumentation automatisée via le système de traçage de contenu de la back de foin. |
| Litrellm | Python, JS / TS (proxy uniquement) | Utilisez n'importe quel LLM en remplacement de GPT. Utilisez Azure, Openai, Cohere, Anthropic, Olllama, Vllm, SageMaker, HuggingFace, Replicate (100+ LLMS). |
| SDK Vercel AI | JS / TS | TypeScript Toolkit conçue pour aider les développeurs à créer des applications alimentées par AI avec React, Next.js, Vue, Svelte, Node.js. |
| API | Appelez directement l'API publique. Spécités OpenAPI disponibles. |
Packages intégrés à Langfuse:
| Nom | Description |
|---|---|
| Instructeur | Bibliothèque pour obtenir des sorties LLM structurées (JSON, Pydontic) |
| Difficile | Plateforme de développement d'applications LLM Open Source avec constructeur sans code. |
| Ollla | Exécutez facilement les LLM open source sur votre propre machine. |
| Mirascope | Python Toolkit pour la construction d'applications LLM. |
| Couler | JS / TS Builder sans code pour les flux LLM personnalisés. |
| Langflow | L'interface utilisateur basée sur Python pour Langchain, conçue avec React-Flow pour fournir un moyen sans effort d'expérimenter et de flux prototypes. |
Par ordre de préférence, la meilleure façon de communiquer avec nous:
Ce référentiel est sous licence MIT, à l'exception des dossiers ee . Voir la licence et les documents pour plus de détails.
Obtenez des itinéraires pour utiliser des données dans des applications en aval (par exemple, analytique intégrée). Vous pouvez également y accéder commodément via les SDK (DOC).
Nous prenons au sérieux la sécurité des données et la confidentialité. Veuillez vous référer à notre page de sécurité et de confidentialité pour plus d'informations.
Par défaut, Langfuse rapporte automatiquement les statistiques d'utilisation de base des instances auto-hébergées à un serveur centralisé (Posthog).
Cela nous aide à:
Aucune des données n'est partagée avec des tiers et n'inclut aucune information sensible. Nous voulons être super transparents à ce sujet et vous pouvez trouver les données exactes que nous collectons ici.
Vous pouvez vous désinscrire en définissant TELEMETRY_ENABLED=false .