
Intellinode ist ein JavaScript-Modul, das die modernste KI in Ihr Projekt integriert. Mit seinen intuitiven Funktionen können Sie Daten leicht an Modelle wie Chatgpt , Lama , Wavenet , Gemini und stabile Diffusion und empfangen generierte Text, Sprache oder Bilder füttern. Es bietet auch Funktionen auf hoher Ebene wie semantische Suche, Multi-Model-Evaluierung und Chatbot-Funktionen.
Ein Befehl und erhalten Sie Zugriff auf die neuesten Modelle:
npm i intellinode
Ausführliche Verwendungsanweisungen finden Sie in der Dokumentation.
Die Gen -Funktion erzeugt schnell maßgeschneiderte Inhalte in einer Zeile.
Import:
const { Gen } = require ( 'intellinode' ) ;Anruf:
// one line to generate html page code (openai gpt4 is default)
text = 'a registration page with flat modern theme.'
await Gen . save_html_page ( text , folder , file_name , openaiKey ) ; // or generate blog post (using cohere)
const blogPost = await Gen . get_blog_post ( prompt , apiKey , provider = 'cohere' ) ;Import:
const { Chatbot , ChatGPTInput } = require ( 'intellinode' ) ;Anruf:
// set chatGPT system mode and the user message.
const input = new ChatGPTInput ( 'You are a helpful assistant.' ) ;
input . addUserMessage ( 'What is the distance between the Earth and the Moon?' ) ;
// get chatGPT responses.
const chatbot = new Chatbot ( OPENAI_API_KEY , 'openai' ) ;
const responses = await chatbot . chat ( input ) ;Intellinode ermöglicht mühelosen Austausch zwischen KI -Modellen.
const { Chatbot , GeminiInput , SupportedChatModels } = require ( 'intellinode' ) ; const input = new GeminiInput ( ) ;
input . addUserMessage ( 'Who painted the Mona Lisa?' ) ;
const geminiBot = new Chatbot ( apiKey , SupportedChatModels . GEMINI ) ;
const responses = await geminiBot . chat ( input ) ;Die Dokumentation zum Umschalten des Chatbot -Anbieters zwischen Chatgpt, Lama, Cohere, Mistral und More finden Sie im Intellinode -Wiki.
Import:
const { SemanticSearch } = require ( 'intellinode' ) ;Anruf:
const search = new SemanticSearch ( apiKey ) ;
// pivotItem is the item to search.
const results = await search . getTopMatches ( pivotItem , searchArray , numberOfMatches ) ;
const filteredArray = search . filterTopMatches ( results , searchArray )Generieren Sie verbesserte Eingabeaufforderungen mit LLMs:
const promptTemp = await Prompt . fromChatGPT ( "fantasy image with ninja jumping across buildings" , openaiApiKey ) ;
console . log ( promptTemp . getInput ( ) ) ;Import:
const { RemoteLanguageModel , LanguageModelInput } = require ( 'intellinode' ) ;Rufen Sie das OpenAI -Modell an:
const langModel = new RemoteLanguageModel ( 'openai-key' , 'openai' ) ;
model_name = 'gpt-3.5-turbo-instruct'
const results = await langModel . generateText ( new LanguageModelInput ( {
prompt : 'Write a product description for smart plug that works with voice assistant.' ,
model : model_name ,
temperature : 0.7
} ) ) ;
console . log ( 'Generated text:' , results [ 0 ] ) ;Änderung, um Cohere -Modelle aufzurufen:
const langModel = new RemoteLanguageModel ( 'cohere-key' , 'cohere' ) ;
model_name = 'command-xlarge-20221108'
// ... same codeImport:
const { RemoteImageModel , SupportedImageModels , ImageModelInput } = require ( 'intellinode' ) ;Rufen Sie Dall · e an:
provider = SupportedImageModels . OPENAI ;
const imgModel = new RemoteImageModel ( apiKey , provider ) ;
const images = await imgModel . generateImages ( new ImageModelInput ( {
prompt : 'teddy writing a blog in times square' ,
numberOfImages : 1
} ) ) ;Änderung, um eine stabile Diffusion aufzurufen:
provider = SupportedImageModels . STABILITY ;
// ... same codeUm auf OpenAI -Dienste aus Ihrem Azure -Konto zuzugreifen, müssen Sie die folgende Funktion am Anfang Ihrer Bewerbung anrufen:
const { ProxyHelper } = require ( 'intellinode' ) ;
ProxyHelper . getInstance ( ) . setAzureOpenai ( resourceName ) ;Zu OpenAI von einem Stellvertreter für eingeschränkte Regionen zugreifen:
ProxyHelper . getInstance ( ) . setOpenaiProxyValues ( openaiProxyJson ) ;Weitere Informationen und ausführliche Code finden Sie in den Beispielen.
cd IntelliNode
npm install
OPENAI_API_KEY=<key_value>
COHERE_API_KEY=<key_value>
GOOGLE_API_KEY=<key_value>
STABILITY_API_KEY=<key_value>
HUGGING_API_KEY=<key_value>
Führen Sie die Remote -Sprachmodelle Testfälle aus: node test/integration/RemoteLanguageModel.test.js
Führen Sie die Remote -Bildmodelle Testfälle aus: node test/integration/RemoteImageModel.test.js
Führen Sie die Remote -Sprachmodelle Testfälle aus: node test/integration/RemoteSpeechModel.test.js
Führen Sie die Einbettungstestfälle aus: node test/integration/RemoteEmbedModel.test.js
Führen Sie die Chatbot -Testfälle aus: node test/integration/Chatbot.test.js
Die Modulstiftung:
Rufen Sie die Mitwirkenden an: Registrierungsformular.
Apache -Lizenz
Copyright 2023 github.com/barqawiz/intellinode
Lizenziert unter der Apache -Lizenz, Version 2.0 (der "Lizenz"); Sie dürfen diese Datei nur in Übereinstimmung mit der Lizenz verwenden. Sie können eine Kopie der Lizenz bei erhalten
http://www.apache.org/licenses/LICENSE-2.0
Sofern nicht nach geltendem Recht oder schriftlich zu vereinbart wird, wird die im Rahmen der Lizenz verteilte Software auf "As is" -Basis ohne Gewährleistung oder Bedingungen jeglicher Art ausdrücklich oder impliziert verteilt. Siehe die Lizenz für die spezifischen Sprachberechtigungen und Einschränkungen im Rahmen der Lizenz.