Unillm vous permet d'appeler n'importe quel LLM à l'aide de l'API OpenAI, avec une sécurité de type 100%.
Avec unillm, vous pouvez utiliser les compléments de chat même pour les fournisseurs / modèles qui ne le soutiennent pas nativement (par exemple anthropique).
npm i unillm import { UniLLM } from 'unillm' ;
const unillm = new UniLLM ( ) ;
// OpenAI
const response = await unillm . createChatCompletion ( "openai/gpt-3.5-turbo" , { messages : ... } ) ;
const response = await unillm . createChatCompletion ( "openai/gpt-4" , { messages : ... } ) ;
// Anthropic
const response = await unillm . createChatCompletion ( "anthropic/claude-2" , { messages : ... } ) ;
const response = await unillm . createChatCompletion ( "anthropic/claude-1-instant" , { messages : ... } ) ;
// Azure OpenAI
const response = await unillm . createChatCompletion ( "azure/openai/<deployment-name>" , { messages : ... } ) ;
// More coming soon!Vous voulez voir plus d'exemples? Découvrez les documents interactifs .
Pour activer le streaming, fournissez simplement stream: true dans l'objet Options. Voici un exemple:
const response = await unillm . createChatCompletion ( "openai/gpt-3.5-turbo" , {
messages : ... ,
stream : true
} ) ;Vous voulez voir plus d'exemples? Découvrez les documents interactifs .
Nous accueillons les contributions de la communauté! N'hésitez pas à soumettre des demandes de traction ou à créer des problèmes pour les bogues ou les suggestions de fonctionnalités.
Si vous voulez contribuer mais que vous ne savez pas comment, rejoignez notre discorde et nous serons heureux de vous aider!
Veuillez consulter contribution.md avant de contribuer.
Le code source de ce référentiel est disponible sous le MIT.