
Intelliode est un module JavaScript qui intègre l'IA de pointe dans votre projet. Avec ses fonctions intuitives, vous pouvez facilement alimenter des données à des modèles comme Chatgpt , Llama , Wavenet , Gemini et STABLE Diffusion et recevoir du texte, de la parole ou des images générés. Il propose également des fonctions de haut niveau telles que la recherche sémantique, l'évaluation multimodel et les capacités de chatbot.
Une commande et accéder aux derniers modèles:
npm i intellinode
Pour des instructions détaillées d'utilisation, reportez-vous à la documentation.
La fonction Gen génère rapidement du contenu sur mesure en une seule ligne.
importer:
const { Gen } = require ( 'intellinode' ) ;appel:
// one line to generate html page code (openai gpt4 is default)
text = 'a registration page with flat modern theme.'
await Gen . save_html_page ( text , folder , file_name , openaiKey ) ; // or generate blog post (using cohere)
const blogPost = await Gen . get_blog_post ( prompt , apiKey , provider = 'cohere' ) ;importer:
const { Chatbot , ChatGPTInput } = require ( 'intellinode' ) ;appel:
// set chatGPT system mode and the user message.
const input = new ChatGPTInput ( 'You are a helpful assistant.' ) ;
input . addUserMessage ( 'What is the distance between the Earth and the Moon?' ) ;
// get chatGPT responses.
const chatbot = new Chatbot ( OPENAI_API_KEY , 'openai' ) ;
const responses = await chatbot . chat ( input ) ;Intelliode permet d'échanger sans effort entre les modèles d'IA.
const { Chatbot , GeminiInput , SupportedChatModels } = require ( 'intellinode' ) ; const input = new GeminiInput ( ) ;
input . addUserMessage ( 'Who painted the Mona Lisa?' ) ;
const geminiBot = new Chatbot ( apiKey , SupportedChatModels . GEMINI ) ;
const responses = await geminiBot . chat ( input ) ;La documentation pour changer le fournisseur de chatbot entre Chatgpt, Llama, Cohere, Mistral et plus peut être trouvée dans le Wiki Intelliode.
importer:
const { SemanticSearch } = require ( 'intellinode' ) ;appel:
const search = new SemanticSearch ( apiKey ) ;
// pivotItem is the item to search.
const results = await search . getTopMatches ( pivotItem , searchArray , numberOfMatches ) ;
const filteredArray = search . filterTopMatches ( results , searchArray )Générer des invites améliorées à l'aide de LLMS:
const promptTemp = await Prompt . fromChatGPT ( "fantasy image with ninja jumping across buildings" , openaiApiKey ) ;
console . log ( promptTemp . getInput ( ) ) ;importer:
const { RemoteLanguageModel , LanguageModelInput } = require ( 'intellinode' ) ;Appelez le modèle Openai:
const langModel = new RemoteLanguageModel ( 'openai-key' , 'openai' ) ;
model_name = 'gpt-3.5-turbo-instruct'
const results = await langModel . generateText ( new LanguageModelInput ( {
prompt : 'Write a product description for smart plug that works with voice assistant.' ,
model : model_name ,
temperature : 0.7
} ) ) ;
console . log ( 'Generated text:' , results [ 0 ] ) ;Changer pour appeler les modèles Cohere:
const langModel = new RemoteLanguageModel ( 'cohere-key' , 'cohere' ) ;
model_name = 'command-xlarge-20221108'
// ... same codeimporter:
const { RemoteImageModel , SupportedImageModels , ImageModelInput } = require ( 'intellinode' ) ;Appelez Dall · E:
provider = SupportedImageModels . OPENAI ;
const imgModel = new RemoteImageModel ( apiKey , provider ) ;
const images = await imgModel . generateImages ( new ImageModelInput ( {
prompt : 'teddy writing a blog in times square' ,
numberOfImages : 1
} ) ) ;Changer pour appeler une diffusion stable:
provider = SupportedImageModels . STABILITY ;
// ... same codePour accéder aux services OpenAI à partir de votre compte Azure, vous devez appeler la fonction suivante au début de votre application:
const { ProxyHelper } = require ( 'intellinode' ) ;
ProxyHelper . getInstance ( ) . setAzureOpenai ( resourceName ) ;Pour accéder à OpenAI à partir d'un proxy pour les régions restreintes:
ProxyHelper . getInstance ( ) . setOpenaiProxyValues ( openaiProxyJson ) ;Pour plus de détails et du code approfondi, vérifiez les échantillons.
cd IntelliNode
npm install
OPENAI_API_KEY=<key_value>
COHERE_API_KEY=<key_value>
GOOGLE_API_KEY=<key_value>
STABILITY_API_KEY=<key_value>
HUGGING_API_KEY=<key_value>
Exécutez les modèles de langage distant Cas de test: node test/integration/RemoteLanguageModel.test.js
Exécutez les modèles d'images distants Cas de test: node test/integration/RemoteImageModel.test.js
Exécutez les modèles de discours distants Cas de test: node test/integration/RemoteSpeechModel.test.js
Exécutez les cas de test d'intégration: node test/integration/RemoteEmbedModel.test.js
Exécutez les cas de test du chatbot: node test/integration/Chatbot.test.js
La fondation du module:
Appel aux contributeurs: Formulaire d'inscription.
Licence Apache
Copyright 2023 github.com/barqawiz/intellinode
Licencié sous la licence Apache, version 2.0 (la "licence"); Vous ne pouvez pas utiliser ce fichier sauf conforme à la licence. Vous pouvez obtenir une copie de la licence à
http://www.apache.org/licenses/LICENSE-2.0
Sauf exiger la loi applicable ou convenu par écrit, les logiciels distribués en vertu de la licence sont distribués sur une base «tel quel», sans garantie ou conditions d'aucune sorte, expresse ou implicite. Voir la licence pour la langue spécifique régissant les autorisations et les limitations sous la licence.