
Video inmitd para voz en off
Implementación administrada por el equipo de Langfuse, generoso nivel libre (plan de pasatiempo), no se requiere tarjeta de crédito.
»Langfuse Nube
# Clone repository
git clone https://github.com/langfuse/langfuse.git
cd langfuse
# Run server and database
docker compose up -d→ Obtenga más información sobre cómo implementar localmente
Langfuse es fácil de autohost y mantenerse actualizado. Actualmente requiere solo un contenedor Docker y una base de datos Postgres. → Instrucciones de alojamiento automático
Implementaciones plantadas: ferrocarril, GCP, AWS, Azure, Kubernetes y otros
Necesita una llave pública y secreta de Langfuse para comenzar. Regístrese aquí y busquelos en la configuración de su proyecto.
Nota: Recomendamos usar nuestros SDK completamente async y escrito que le permiten instrumentar cualquier aplicación LLM con cualquier modelo subyacente. Están disponibles en Python (decoradores) y JS/TS. Los SDK siempre serán la forma más destacada y estable de ingerir datos en Langfuse.
Vea el → QuickStart para integrar Langfuse.
| Integración | Soporte | Descripción |
|---|---|---|
| Sdk | Python, JS/TS | Instrumentación manual utilizando los SDK para la flexibilidad total. |
| Opadai | Python, JS/TS | Instrumentación automatizada utilizando el reemplazo de la entrega del SDK Operai. |
| Langchain | Python, JS/TS | Instrumentación automatizada pasando el controlador de devolución de llamada a la aplicación Langchain. |
| Llamado | Pitón | Instrumentación automatizada a través del sistema de devolución de llamada Llamaindex. |
| Almiar | Pitón | Instrumentación automatizada a través del sistema de rastreo de contenido de Haystack. |
| Litellm | Python, JS/TS (solo proxy) | Use cualquier LLM como una caída de reemplazo para GPT. Use Azure, Openai, Cohere, Anthrope, Ollama, VLLM, Sagemaker, Huggingface, Replicate (más de 100 LLM). |
| VERCEL AI SDK | JS/TS | TypeScript Toolkit diseñado para ayudar a los desarrolladores a construir aplicaciones con AI con React, Next.js, Vue, Svelte, Node.js. |
| API | Llame directamente a la API pública. Especificación de OpenApi disponible. |
Paquetes integrados con Langfuse:
| Nombre | Descripción |
|---|---|
| Instructor | Biblioteca para obtener salidas LLM estructuradas (JSON, Pydantic) |
| Diferente | Open Source LLM App Development Platform con Builder sin código. |
| Ollama | Ejecute fácilmente LLM de código abierto en su propia máquina. |
| Mirascope | Python Toolkit para aplicaciones LLM de construcción. |
| Flotar | JS/TS No-Code Builder para flujos LLM personalizados. |
| Flujo de lang | UI basada en Python para Langchain, diseñada con React-Flow para proporcionar una forma fácil de experimentar y prototipos de flujos. |
En orden de preferencia, la mejor manera de comunicarse con nosotros:
Este repositorio tiene licencia MIT, excepto las carpetas ee . Vea la licencia y los documentos para obtener más detalles.
Obtenga rutas para usar datos en aplicaciones posteriores (por ejemplo, análisis integrado). También puede acceder a ellos convenientemente a través de los SDK (documentos).
Tomamos en serio la seguridad de los datos y la privacidad. Consulte nuestra página de seguridad y privacidad para obtener más información.
Por defecto, Langfuse informa automáticamente las estadísticas básicas de uso de instancias autohospedadas a un servidor centralizado (posthog).
Esto nos ayuda a:
Ninguno de los datos se comparte con terceros y no incluye ninguna información confidencial. Queremos ser súper transparentes sobre esto y puede encontrar los datos exactos que recopilamos aquí.
Puede optar por configurar TELEMETRY_ENABLED=false .