Unillm le permite llamar a cualquier LLM utilizando la API de OpenAI, con seguridad del 100%.
Con Unillm, puede usar completaciones de chat incluso para proveedores/modelos que no lo admiten de forma nativa (por ejemplo, antrópico).
npm i unillm import { UniLLM } from 'unillm' ;
const unillm = new UniLLM ( ) ;
// OpenAI
const response = await unillm . createChatCompletion ( "openai/gpt-3.5-turbo" , { messages : ... } ) ;
const response = await unillm . createChatCompletion ( "openai/gpt-4" , { messages : ... } ) ;
// Anthropic
const response = await unillm . createChatCompletion ( "anthropic/claude-2" , { messages : ... } ) ;
const response = await unillm . createChatCompletion ( "anthropic/claude-1-instant" , { messages : ... } ) ;
// Azure OpenAI
const response = await unillm . createChatCompletion ( "azure/openai/<deployment-name>" , { messages : ... } ) ;
// More coming soon!¿Quieres ver más ejemplos? Mira los documentos interactivos .
Para habilitar la transmisión, simplemente proporcione stream: true en el objeto Opciones. Aquí hay un ejemplo:
const response = await unillm . createChatCompletion ( "openai/gpt-3.5-turbo" , {
messages : ... ,
stream : true
} ) ;¿Quieres ver más ejemplos? Mira los documentos interactivos .
¡Agradecemos las contribuciones de la comunidad! No dude en enviar solicitudes de extracción o crear problemas para errores o sugerencias de características.
Si desea contribuir, pero no está seguro de cómo, únase a nuestra discordia y estaremos encantados de ayudarlo.
Echa un vistazo a contribuir.md antes de contribuir.
El código fuente de este repositorio está disponible en el MIT.