
Vídeo de ativação de ativação para narração
A implantação gerenciada pela equipe Langfuse, generosa de camada livre (plano de hobby), nenhum cartão de crédito é necessário.
»Langfuse Cloud
# Clone repository
git clone https://github.com/langfuse/langfuse.git
cd langfuse
# Run server and database
docker compose up -d→ Saiba mais sobre como implantar localmente
O Langfuse é simples de auto-host e manter-se atualizado. Atualmente, requer apenas um único contêiner do Docker e um banco de dados do Postgres. → Instruções de hospedagem automática
Implantações modeladas: ferroviária, GCP, AWS, Azure, Kubernetes e outros
Você precisa de uma chave pública e secreta do Langfuse para começar. Inscreva -se aqui e encontre -os nas configurações do seu projeto.
NOTA: Recomendamos o uso de nossos SDKs digitados totalmente assíncronos, que permitem instrumentar qualquer aplicativo LLM com qualquer modelo subjacente. Eles estão disponíveis em Python (decoradores) e JS/TS. Os SDKs sempre serão a maneira mais totalmente destacada e estável de ingerir dados no Langfuse.
Consulte o → Início rápido para integrar o Langfuse.
| Integração | Suportes | Descrição |
|---|---|---|
| Sdk | Python, JS/TS | Instrumentação manual usando os SDKs para obter total flexibilidade. |
| Openai | Python, JS/TS | Instrumentação automatizada usando a substituição do OpenAI SDK. |
| Langchain | Python, JS/TS | Instrumentação automatizada passando o manipulador de retorno de chamada para o aplicativo Langchain. |
| Llamaindex | Python | Instrumentação automatizada via sistema de retorno de chamada Llandeindex. |
| Palheiro | Python | Instrumentação automatizada via sistema de rastreamento de conteúdo do palheiro. |
| Litellm | Python, JS/TS (somente proxy) | Use qualquer LLM como uma queda na substituição do GPT. Use Azure, Openai, Cohere, Antrópico, Ollama, Vllm, Sagemaker, Huggingface, Replicar (100+ LLMs). |
| VERCEL AI SDK | JS/TS | Typescript Toolkit projetado para ajudar os desenvolvedores a criar aplicativos movidos a IA com React, Next.js, Vue, Sieve, Node.js. |
| API | Chame diretamente a API pública. Speci Speci disponível. |
Pacotes integrados ao Langfuse:
| Nome | Descrição |
|---|---|
| Instrutor | Biblioteca para obter saídas estruturadas LLM (JSON, Pydantic) |
| DIFY | Plataforma de desenvolvimento de aplicativos de código aberto LLM com construtor sem código. |
| Ollama | Execute facilmente o Open Source LLMS em sua própria máquina. |
| Mirascope | Python Toolkit para a construção de aplicativos LLM. |
| Fluir | JS/TS Sem Codificador Construtor para fluxos LLM personalizados. |
| Langflow | A interface do usuário baseada em Python para Langchain, projetada com fluxo de reação para fornecer uma maneira sem esforço de experimentar e protótipos fluxos. |
Em ordem de preferência, a melhor maneira de se comunicar conosco:
Este repositório é licenciado pelo MIT, exceto nas pastas ee . Consulte a licença e os documentos para obter mais detalhes.
Obtenha rotas para usar dados em aplicativos a jusante (por exemplo, análises incorporadas). Você também pode acessá -los convenientemente através dos SDKs (DOCs).
Levamos a sério a segurança e a privacidade dos dados. Consulte nossa página de segurança e privacidade para obter mais informações.
Por padrão, o Langfuse relata automaticamente estatísticas de uso básico de instâncias auto-hospedadas a um servidor centralizado (POSTHOG).
Isso nos ajuda a:
Nenhum dos dados é compartilhado com terceiros e não inclui nenhuma informação confidencial. Queremos ser super transparentes sobre isso e você pode encontrar os dados exatos que coletamos aqui.
Você pode optar por não ter uma configuração de TELEMETRY_ENABLED=false .