
Intellinode es un módulo JavaScript que integra AI de vanguardia en su proyecto. Con sus funciones intuitivas, puede alimentar fácilmente datos a modelos como ChatGPT , LLAMA , Wavenet , Géminis y difusión estable y recibir texto, habla o imágenes generados. También ofrece funciones de alto nivel, como búsqueda semántica, evaluación de múltiples modelos y capacidades de chatbot.
Un comando y obtener acceso a los últimos modelos:
npm i intellinode
Para obtener instrucciones de uso detalladas, consulte la documentación.
La función Gen genera rápidamente contenido personalizado en una línea.
importar:
const { Gen } = require ( 'intellinode' ) ;llamar:
// one line to generate html page code (openai gpt4 is default)
text = 'a registration page with flat modern theme.'
await Gen . save_html_page ( text , folder , file_name , openaiKey ) ; // or generate blog post (using cohere)
const blogPost = await Gen . get_blog_post ( prompt , apiKey , provider = 'cohere' ) ;importar:
const { Chatbot , ChatGPTInput } = require ( 'intellinode' ) ;llamar:
// set chatGPT system mode and the user message.
const input = new ChatGPTInput ( 'You are a helpful assistant.' ) ;
input . addUserMessage ( 'What is the distance between the Earth and the Moon?' ) ;
// get chatGPT responses.
const chatbot = new Chatbot ( OPENAI_API_KEY , 'openai' ) ;
const responses = await chatbot . chat ( input ) ;Intellinode permite intercambio sin esfuerzo entre los modelos de IA.
const { Chatbot , GeminiInput , SupportedChatModels } = require ( 'intellinode' ) ; const input = new GeminiInput ( ) ;
input . addUserMessage ( 'Who painted the Mona Lisa?' ) ;
const geminiBot = new Chatbot ( apiKey , SupportedChatModels . GEMINI ) ;
const responses = await geminiBot . chat ( input ) ;La documentación para cambiar el proveedor de chatbot entre ChatGPT, Llama, Cohere, Mistral y más se puede encontrar en el Wiki Intellinode.
importar:
const { SemanticSearch } = require ( 'intellinode' ) ;llamar:
const search = new SemanticSearch ( apiKey ) ;
// pivotItem is the item to search.
const results = await search . getTopMatches ( pivotItem , searchArray , numberOfMatches ) ;
const filteredArray = search . filterTopMatches ( results , searchArray )Genere indicaciones mejoradas usando LLM:
const promptTemp = await Prompt . fromChatGPT ( "fantasy image with ninja jumping across buildings" , openaiApiKey ) ;
console . log ( promptTemp . getInput ( ) ) ;importar:
const { RemoteLanguageModel , LanguageModelInput } = require ( 'intellinode' ) ;Llame al modelo Openai:
const langModel = new RemoteLanguageModel ( 'openai-key' , 'openai' ) ;
model_name = 'gpt-3.5-turbo-instruct'
const results = await langModel . generateText ( new LanguageModelInput ( {
prompt : 'Write a product description for smart plug that works with voice assistant.' ,
model : model_name ,
temperature : 0.7
} ) ) ;
console . log ( 'Generated text:' , results [ 0 ] ) ;Cambiar para llamar a los modelos Cohere:
const langModel = new RemoteLanguageModel ( 'cohere-key' , 'cohere' ) ;
model_name = 'command-xlarge-20221108'
// ... same codeimportar:
const { RemoteImageModel , SupportedImageModels , ImageModelInput } = require ( 'intellinode' ) ;Llame a Dall · E:
provider = SupportedImageModels . OPENAI ;
const imgModel = new RemoteImageModel ( apiKey , provider ) ;
const images = await imgModel . generateImages ( new ImageModelInput ( {
prompt : 'teddy writing a blog in times square' ,
numberOfImages : 1
} ) ) ;Cambio para llamar a la difusión estable:
provider = SupportedImageModels . STABILITY ;
// ... same codePara acceder a los servicios de OperaI desde su cuenta de Azure, debe llamar a la siguiente función al comienzo de su aplicación:
const { ProxyHelper } = require ( 'intellinode' ) ;
ProxyHelper . getInstance ( ) . setAzureOpenai ( resourceName ) ;Para acceder a OpenAI desde un proxy para regiones restringidas:
ProxyHelper . getInstance ( ) . setOpenaiProxyValues ( openaiProxyJson ) ;Para obtener más detalles y código en profundidad, consulte las muestras.
cd IntelliNode
npm install
OPENAI_API_KEY=<key_value>
COHERE_API_KEY=<key_value>
GOOGLE_API_KEY=<key_value>
STABILITY_API_KEY=<key_value>
HUGGING_API_KEY=<key_value>
Ejecute los casos de prueba de modelos de idiomas remotos: node test/integration/RemoteLanguageModel.test.js
Ejecute los modelos de imagen remotos Casos de prueba: node test/integration/RemoteImageModel.test.js
Ejecute los casos de prueba de modelos de voz remotos: node test/integration/RemoteSpeechModel.test.js
Ejecute los casos de prueba de incrustación: node test/integration/RemoteEmbedModel.test.js
Ejecute los casos de prueba de chatbot: node test/integration/Chatbot.test.js
La base del módulo:
Llame a los contribuyentes: formulario de registro.
Licencia de apache
Copyright 2023 github.com/barqawiz/intellinode
Licenciado bajo la licencia Apache, versión 2.0 (la "licencia"); No puede usar este archivo, excepto de conformidad con la licencia. Puede obtener una copia de la licencia en
http://www.apache.org/licenses/LICENSE-2.0
A menos que la ley aplicable sea requerida o acordado por escrito, el software distribuido bajo la licencia se distribuye de manera "como es", sin garantías o condiciones de ningún tipo, ya sea expresas o implícitas. Consulte la licencia para los permisos y limitaciones de rigor de idioma específico bajo la licencia.