
O Intellinode é um módulo JavaScript que integra a IA de ponta no seu projeto. Com suas funções intuitivas, você pode facilmente alimentar dados para modelos como ChatGPT , LLAMA , WAVENET , GEMINI e Difusão estável e receber texto gerado, fala ou imagens geradas. Ele também oferece funções de alto nível, como pesquisa semântica, avaliação de vários modelos e recursos de chatbot.
Um comando e obtenha acesso aos modelos mais recentes:
npm i intellinode
Para obter instruções de uso detalhadas, consulte a documentação.
A função Gen gera rapidamente conteúdo personalizado em uma linha.
importar:
const { Gen } = require ( 'intellinode' ) ;chamar:
// one line to generate html page code (openai gpt4 is default)
text = 'a registration page with flat modern theme.'
await Gen . save_html_page ( text , folder , file_name , openaiKey ) ; // or generate blog post (using cohere)
const blogPost = await Gen . get_blog_post ( prompt , apiKey , provider = 'cohere' ) ;importar:
const { Chatbot , ChatGPTInput } = require ( 'intellinode' ) ;chamar:
// set chatGPT system mode and the user message.
const input = new ChatGPTInput ( 'You are a helpful assistant.' ) ;
input . addUserMessage ( 'What is the distance between the Earth and the Moon?' ) ;
// get chatGPT responses.
const chatbot = new Chatbot ( OPENAI_API_KEY , 'openai' ) ;
const responses = await chatbot . chat ( input ) ;O Intellinode permite a troca sem esforço entre os modelos de IA.
const { Chatbot , GeminiInput , SupportedChatModels } = require ( 'intellinode' ) ; const input = new GeminiInput ( ) ;
input . addUserMessage ( 'Who painted the Mona Lisa?' ) ;
const geminiBot = new Chatbot ( apiKey , SupportedChatModels . GEMINI ) ;
const responses = await geminiBot . chat ( input ) ;A documentação para alternar o provedor de chatbot entre chatgpt, llama, coere, Mistral e muito mais pode ser encontrado no Wiki Intellinode.
importar:
const { SemanticSearch } = require ( 'intellinode' ) ;chamar:
const search = new SemanticSearch ( apiKey ) ;
// pivotItem is the item to search.
const results = await search . getTopMatches ( pivotItem , searchArray , numberOfMatches ) ;
const filteredArray = search . filterTopMatches ( results , searchArray )Gerar instruções aprimoradas usando LLMS:
const promptTemp = await Prompt . fromChatGPT ( "fantasy image with ninja jumping across buildings" , openaiApiKey ) ;
console . log ( promptTemp . getInput ( ) ) ;importar:
const { RemoteLanguageModel , LanguageModelInput } = require ( 'intellinode' ) ;Ligue para o modelo OpenAI:
const langModel = new RemoteLanguageModel ( 'openai-key' , 'openai' ) ;
model_name = 'gpt-3.5-turbo-instruct'
const results = await langModel . generateText ( new LanguageModelInput ( {
prompt : 'Write a product description for smart plug that works with voice assistant.' ,
model : model_name ,
temperature : 0.7
} ) ) ;
console . log ( 'Generated text:' , results [ 0 ] ) ;Mudar para chamar modelos Coere:
const langModel = new RemoteLanguageModel ( 'cohere-key' , 'cohere' ) ;
model_name = 'command-xlarge-20221108'
// ... same codeimportar:
const { RemoteImageModel , SupportedImageModels , ImageModelInput } = require ( 'intellinode' ) ;Ligue para Dall · E:
provider = SupportedImageModels . OPENAI ;
const imgModel = new RemoteImageModel ( apiKey , provider ) ;
const images = await imgModel . generateImages ( new ImageModelInput ( {
prompt : 'teddy writing a blog in times square' ,
numberOfImages : 1
} ) ) ;Mudar para chamar difusão estável:
provider = SupportedImageModels . STABILITY ;
// ... same codePara acessar os serviços do OpenAI da sua conta do Azure, você deve chamar a seguinte função no início do seu aplicativo:
const { ProxyHelper } = require ( 'intellinode' ) ;
ProxyHelper . getInstance ( ) . setAzureOpenai ( resourceName ) ;Para acessar o OpenAI de um proxy para regiões restritas:
ProxyHelper . getInstance ( ) . setOpenaiProxyValues ( openaiProxyJson ) ;Para obter mais detalhes e código detalhado, verifique as amostras.
cd IntelliNode
npm install
OPENAI_API_KEY=<key_value>
COHERE_API_KEY=<key_value>
GOOGLE_API_KEY=<key_value>
STABILITY_API_KEY=<key_value>
HUGGING_API_KEY=<key_value>
Execute os modelos de linguagem remota casos de teste: node test/integration/RemoteLanguageModel.test.js
Execute os modelos de imagem remota casos de teste: node test/integration/RemoteImageModel.test.js
Execute os modelos de fala remotos casos de teste: node test/integration/RemoteSpeechModel.test.js
Execute os casos de teste de incorporação: node test/integration/RemoteEmbedModel.test.js
Execute os casos de teste de chatbot: node test/integration/Chatbot.test.js
A fundação do módulo:
Ligue para os colaboradores: formulário de registro.
Licença Apache
Copyright 2023 github.com/barqawiz/Intellinode
Licenciado sob a licença Apache, versão 2.0 (a "licença"); Você não pode usar esse arquivo, exceto em conformidade com a licença. Você pode obter uma cópia da licença em
http://www.apache.org/licenses/LICENSE-2.0
A menos que exigido pela lei aplicável ou acordada por escrito, o software distribuído pela licença é distribuído "como está", sem garantias ou condições de qualquer tipo, expressa ou implícita. Consulte a licença para o idioma específico que rege as permissões e limitações sob a licença.